Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Historia De La Web
1. Historia de la Web
La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40
sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una
interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes
determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano
teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera
referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no
es hasta 1980, con un soporte operativo tecnológico para la distribución de información en
redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a
Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se
materializa la realización práctica de este concepto de incipientes nociones de la Web.
En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la
propuesta,2 que referenciaba a ENQUIRE y describía un sistema de gestión de información
más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas
referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide
Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal
para la world wide web3 el 12 de noviembre de 1990.
Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el
primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee
había creado todas las herramientas necesarias para que una web funcionase:4 el primer
navegador web (el cual también era un editor web), el primer servidor web y las primeras
páginas web5 que al mismo tiempo describían el proyecto.
El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al
newsgroup6 alt.hypertext. Esta fecha también señala el debut de la web como un servicio
disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la
década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de
Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado
sistema basado en microfilm "memex", de Vannevar Bush.
El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en
castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las
dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como
nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el
proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y
2. también: el Uniform Resource Identifier.
World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban
disponibles en aquel momento:
• WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía
posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del
propietario de ese recurso. Con ello se reducía significativamente la dificultad de
implementar servidores web y navegadores (en comparación con los sistemas
anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.
• A diferencia de sus predecesores, como HyperCard, World Wide Web era no-
propietario, haciendo posible desarrollar servidores y clientes independientemente y
añadir extensiones sin restricciones de licencia.
• El 30 de abril de 1993, el CERN anunció7 que la web sería gratuita para todos, sin
ningún tipo de honorarios.
ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado
en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin
embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la
World Wide Web comenzó con la introducción8 del navegador9 web Mosaic en 1993, un
navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en
Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del
High-Performance Computing and Communications Initiative, un programa de fondos iniciado
por el entonces gobernador Al Gore High Performance Computing and Communication Act of
1991, también conocida como la Gore Bill.10 Antes del lanzamiento de Mosaic, las páginas
web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos
anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. El interfaz gráfico de
usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de
una manera fulgurante.
3. Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.
Definición de la Web
La palabra web (del inglés: red, malla, telaraña) puede referirse a:
La Web (con el determinante "La"), el sistema de documentos (o webs) interconectados por
enlaces de hypertexto, disponibles en Internet
Una página web: documento o fuente de información, generalmente en formato HTML y que
puede contener hiperenlaces a otras páginas web. Dicha página web, podrá ser accesible
desde un dispositivo físico, una intranet, o Internet.
Un sitio web, o red informática (en inglés: «website»), que es un conjunto de páginas web,
típicamente comunes a un dominio o subdominio en la World Wide Web en Internet.
Un servidor web, un programa que implementa el protocolo HTTP (hypertext transfer protocol)
para transferir lo que llamamos hipertextos, páginas web o páginas HTML (hypertext markup
language).
También se le da este nombre, al ordenador que ejecuta este programa.
Web 2.0, término acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación
de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes
sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio
ágil de información entre los usuarios.
Web 3.0, El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey
Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un
debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.
La Web y su Funcionamiento.
4. En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de
documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un
navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes,
vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau
mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces,
Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los
lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha
abogado por su visión de una Web Semántica.
La visualización de una página web de la World Wide Web normalmente comienza tecleando la
URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o
recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes
para el usuario, para obtener los datos de la página y visualizarla.
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección
IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es
necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el
caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente
analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y
otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web
normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor
asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y
como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las
imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas
también contienen descargas, documentos fuente, definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de
hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al
trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término
escrito en CamelCase, posteriormente desechado) en 1990.1
Si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable
que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el
apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local
todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición
HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión
almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.
Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La
decisión sobre la caducidad de la página se hace de forma independiente para cada recurso
(imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin
embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían
una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y
JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser
descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las
peticiones al servidor.
Hay otros componentes de Internet que pueden almacenar contenido Web. El más común en la
práctica son los frecuentes firewalls de empresa y académicos donde se pueden almacenar los
5. recursos web solicitados por un usuario para el beneficio de todos los que estén conectados a
ese firewall. Algunos buscadores como Google, Yahoo!, GlowBoom o AltaVista también
almacenan contenidos de sitios Web.
Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los
ficheros físicos han sido actualizados, los diseñadores de páginas web generadas
dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que
las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché.
Por ejemplo, en los bancos on line y las páginas de noticias se utiliza frecuentemente este
sistema.
Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos
solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones,
mientras que con los datos obtenidos después de enviar información al servidor con POST
normalmente no se puede.
Semántica de la Web y sus Componentes.
La Web semántica (del inglés semantic web) es la "Web de los datos".1 Se basa en la idea de
añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones
adicionales —que describen el contenido, el significado y la relación de los datos— se deben
proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por
máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad
entre los sistemas informáticos y reducir la necesaria mediación de operadores humanos.
El precursor de la idea, Tim Berners-Lee, intentó desde el principio incluir informacion
semántica en su creación, la World Wide Web, pero por diferentes causas no fue posible.2 Por
ese motivo introdujo el concepto de semántica con la intención de recuperar dicha omisión.
Los principales componentes de la Web Semántica son los metalenguajes y los estándares de
representación XML, XML Schema, RDF, RDF Schema y OWL. La OWL Web Ontology
Language Overview describe la función y relación de cada uno de estos componentes de la
Web Semántica:
• XML aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles
de ninguna restricción sobre el significado.
• XML Schema es un lenguaje para definir la estructura de los documentos XML.
• RDF es un modelo de datos para los recursos y las relaciones que se puedan
establecer entre ellos. Aporta una semántica básica para este modelo de datos que
puede representarse mediante XML.
• RDF Schema es un vocabulario para describir las propiedades y las clases de los
recursos RDF, con una semántica para establecer jerarquías de generalización entre
dichas propiedades y clases.
6. • OWL añade más vocabulario para describir propiedades y clases: tales como
relaciones entre clases (p.ej. disyunción), cardinalidad (por ejemplo "únicamente uno"),
igualdad, tipologías de propiedades más complejas, caracterización de propiedades
(por ejemplo simetría) o clases enumeradas. La usabilidad y aprovechamiento de la
Web y sus recursos interconectados puede aumentar con la web semántica gracias a:
• Los documentos etiquetados con información semántica (compárese ésta con la
etiqueta de HTML, usada para facilitar el trabajo de los robots). Se pretende que esta
información sea interpretada por el ordenador con una capacidad comparable a la del
lector humano. El etiquetado puede incluir metadatos descriptivos de otros aspectos
documentales o protocolarios.
• Vocabularios comunes de metadatos (Ontología (Informática)) y mapas entre
vocabularios que permitan a quienes elaboran los documentos disponer de nociones
claras sobre cómo deben etiquetarlos para que los agentes automáticos puedan usar la
información contenida en los metadatos (p.ej. el metadato author tenga el significado
de "autor de la página" y no el del "autor del objeto descrito en la página").
• Agentes automáticos que realicen tareas para los usuarios de estos metadatos de la
Web Semántica
• Servicios Web (a menudo con agentes propios) que provean de información a los
agentes (por ejemplo un servicio de garantías a quien un agente pudiera consultar
sobre si un comercio electrónico tiene un historial de mal servicio o de generar correo
basura).
• Los proveedores primarios de esta tecnología son las URIs que identifican los recursos
junto con XML y los namespaces. Si a esto se añade un poco de lógica, mediante una
RDF, u otras tecnologías como los mapas temáticos y algo de razonamiento basado en
técnicas de inteligencia artificial, Internet podría estar cerca de alcanzar las
aspiraciones iniciales de su inventor, Tim Berners-Lee.
El Ingeniero Web
•
7. • Un ingeniero web no es un tipo que se la pasa programando en php.Un diseñador web
no se encarga de la información y las etiquetas que debe llevar un sitio web.Un
programador web no está interesado en los colores de la web y pocas veces se
preocupa por la seguridad.Un diagramador web siempre piensa en colores, pero pocas
veces se preocupa del código.
• En este mundo creciente hacia la web 2.0 donde las comunidades juegan un papel
importante y además las formas de comunicación van cambiando día a día, la
profesión de Ingeniero Web se hace más importante y toma más peso a nivel mundial.
Sin embargo, a veces se confunde un poco el término Ingeniero Web con el de
Diseñador Web. Puede que una persona tenga los dos perfiles y estén ampliamente
ligados, pero son cosas diferentes.El Ingeniero Web se encarga de proyectar hacia el
mundo la visión corporativa de la empresa teniendo en cuenta factores como
Usabilidad y Accesibilidad, es decir que el portal sea fácil de usar e intuitivo, y
accesible tanto para diferentes dispositivos y navegadores como personas
discapacitadas. Por otro lado, debe manejar las estratégias para aumentar el
pocicionamiento en internet y aparecer de primero en los motores de búsqueda.
También el ingeniero Web analisa el mercado y los posibles visitantes de su sitio web
para establecer la estrategia a seguir para capturar su atención. La seguridad del sitio
web sus controles también están bajo el mando del Ingeniero Web.
El Diseñador Web no solo debe tener en cuenta la Usabilidad y Accesibilidad, sino que
además basado en los estudios de mercado y clientes/visitantes potenciales, debe
establecer un diseño atractivo tanto en ubicación de secciones como en colores.
Además el diseñador web es quien direcciona el trabajo del Diagramador web.
El Programador web poco se interesa por los usuarios, por los colores, por el mercado.
El programador web solo se interesa en hacer que un proceso funcione de X manera
(son felices y aman su trabajo cuando todo sale como quieren), de acuerdo con los
requerimientos realizados por el Ingeniero Web. Sin programadores no existirían sitios
web, pero desde mi punto de vista los programadores pocas veces tienen una visión de
ingeniero, aunque algunos comienzan como programadores web y evolucionan hacia
ingenieros web.
El Diagramador es aquel que siguiendo los patrones establecidos por el Ingeniero o el
Diseñador, es capaz de ponerle colores a casi cualquier cosa, incuso desde Paint
brush. Si se le dice ‘Necesito una viñeta roja’, la hace porque es su trabajo y lo adora.
El diagramador poco se interesa por la programación o por los estudios de mercado.
El Ingeniero Web es el responsable de la eficacia de un portal en internet. Lo
acompaña un equipo multidisciplinario para el desarrollo de proyectos web y tiene que
8. conocer casi de todo, por lo cual puede que evolucione desde otros niveles a Ingeniero
Web.
La Web como Servicio.
Un servicio web (en inglés, Web service) es un conjunto de protocolos y estándares que sirven
para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en
lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar
los servicios web para intercambiar datos en redes de ordenadores como Internet.
La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las
organizaciones OASIS y W3C son los comités responsables de la arquitectura y
reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas
implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar
diversos perfiles para definir de manera más exhaustiva estos estándares.
Estándares empleados por la Web:
Web Services Protocol Stack: Así se denomina al conjunto de servicios y protocolos de los
servicios Web.
• XML (Extensible Markup Language): Es el formato estándar para los datos que se
vayan a intercambiar.
• SOAP (Simple Object Access Protocol) o XML-RPC (XML Remote Procedure Call):
Protocolos sobre los que se establece el intercambio.
• Otros protocolos: los datos en XML también pueden enviarse de una aplicación a otra
mediante protocolos normales como HTTP (Hypertext Transfer Protocol), FTP (File
Transfer Protocol), o SMTP (Simple Mail Transfer Protocol).
• WSDL (Web Services Description Language): Es el lenguaje de la interfaz pública para
los servicios Web. Es una descripción basada en XML de los requisitos funcionales
necesarios para establecer una comunicación con los servicios Web.
• UDDI (Universal Description, Discovery and Integration): Protocolo para publicar la
información de los servicios Web. Permite comprobar qué servicios web están
disponibles.
• WS-Security (Web Service Security): Protocolo de seguridad aceptado como estándar
por OASIS (Organization for the Advancement of Structured Information Standards).
Garantiza la autenticación de los actores y la confidencialidad de los mensajes
enviados.
9. Ventajas de los servicios Web :
• Aportan interoperabilidad entre aplicaciones de software independientemente de sus
propiedades o de las plataformas sobre las que se instalen.
• Los servicios Web fomentan los estándares y protocolos basados en texto, que hacen
más fácil acceder a su contenido y entender su funcionamiento.
• Al apoyarse en HTTP, los servicios Web pueden aprovecharse de los sistemas de
seguridad firewall sin necesidad de cambiar las reglas de filtrado.
• Permiten que servicios y software de diferentes compañías ubicadas en diferentes
lugares geográficos puedan ser combinados fácilmente para proveer servicios
integrados.
• Permiten la interoperabilidad entre plataformas de distintos fabricantes por medio de
protocolos estándar y abiertos. Las especificaciones son gestionadas por una
organización abierta, la W3C, por tanto no hay secretismos por intereses particulares
de fabricantes concretos y se garantiza la plena interoperabilidad entre aplicaciones.
• Inconvenientes de los servicios Web
• Para realizar transacciones no pueden compararse en su grado de desarrollo con los
estándares abiertos de computación distribuida como CORBA (Common Object
Request Broker Architecture).
• Su rendimiento es bajo si se compara con otros modelos de computación distribuida,
tales como RMI (Remote Method Invocation), CORBA o DCOM (Distributed
Component Object Model). Es uno de los inconvenientes derivados de adoptar un
formato basado en texto. Y es que entre los objetivos de XML no se encuentra la
concisión ni la eficacia de procesamiento.
• Al apoyarse en HTTP, pueden esquivar medidas de seguridad basadas en firewall
cuyas reglas tratan de bloquear o auditar la comunicación entre programas a ambos
lados de la barrera.
Lo nuevo en la Web: La web 2.0
La infraestructura de la Web 2.0 es muy compleja y va evolucionando, pero incluye el
software de servidor, redifusión de contenidos, protocolos de mensajes, navegadores
basados en estándares, y varias aplicaciones para clientes.
Razones para crear un sitio Web.
10. La principal razón para usar servicios Web es que se basan en HTTP sobre TCP (Transmission
Control Protocol) en el puerto 80. Dado que las organizaciones protegen sus redes mediante
firewalls -que filtran y bloquean gran parte del tráfico de Internet-, cierran casi todos los puertos
TCP salvo el 80, que es, precisamente, el que usan los navegadores. Los servicios Web
utilizan este puerto, por la simple razón de que no resultan bloqueados.
Otra razón es que, antes de que existiera SOAP, no había buenas interfaces para acceder a las
funcionalidades de otros ordenadores en red. Las que había eran ad hoc y poco conocidas,
tales como EDI (Electronic Data Interchange), RPC (Remote Procedure Call), u otras APIs.
Una tercera razón por la que los servicios Web son muy prácticos es que pueden aportar gran
independencia entre la aplicación que usa el servicio Web y el propio servicio. De esta forma,
los cambios a lo largo del tiempo en uno no deben afectar al otro. Esta flexibilidad será cada
vez más importante, dado que la tendencia a construir grandes aplicaciones a partir de
componentes distribuidos más pequeños es cada día más utilizada.
Se espera que para los próximos años mejoren la calidad y cantidad de servicios ofrecidos
basados en los nuevos estándares.