UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

1,609 views
1,440 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,609
On SlideShare
0
From Embeds
0
Number of Embeds
58
Actions
Shares
0
Downloads
31
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

  1. 1. Vicerrectorado Académico. Proyecto de Carrera: Ingeniería en Informática. Cátedra: Auditoría y Evaluación de Sistemas. Semestre 2012-I. Sección 1.Profesor: Integrantes:Carlos Guevara Cristancho Yenifer C.I.: 17.632.071 Rodríguez, Joselyn C.I. 20.299.475 Rodríguez Keyla C.I.: 18.247.016 Puerto Ordaz, Mayo de 2012.
  2. 2. Índice PáginaIntroducción 3Objetivo General 4Objetivos Específicos 4Procesamiento Distribuido:  Definición 5  Características 5  Objetivo 6  Clasificación 6  Seguridad 8  Aplicaciones 8  Ejemplo 9  Arquitectura de Comunicaciones 10  Futuro del Procesamiento Distribuido 12  Auditoria de Redes 14  Etapas de la Auditorias de Redes 14  Auditoria Red Física 14  Auditoria Red Lógica 15  Analisis de Vulnerabilidad 15  Estrategia de Saneamiento 15  Plan de Contención 16  Seguimiento Continuo del desempeño del Sistema 16  Procedimiento y Metodología para Informe P. Distribuido 16  Planificación 18  Objetivo general Pagina Web 19  Objetivos Específicos Pagina Web 19Conclusión 20Bibliografía 21Anexos 22
  3. 3. Introducción Dada la creciente disponibilidad de PC y minicomputadores económicospero potentes, se ha producido una tendencia al alza del procesamiento de datosdistribuidos (DDP). El uso de DDP permite dispersar los procesadores, datos yotros elementos del sistema dentro de una organización. La tendencia de estas aplicaciones ha sido apoyada por la evolución de lascapacidades distribuidas del Sistema Operativo y de las utilidades de soporte. Seha explorado un amplio espectro de posibilidades:  Arquitectura de Comunicaciones.  Sistema Operativo de Red: Es la configuración en que existe una red de máquinas de aplicación, generalmente workstations monousuario y una o más máquinas servidoras.  Sistemas Operativos Distribuidos: Es un Sistema Operativo común compartido por una red de computadores. El Procesamiento Distribuido se define como la forma en que es posibleconectar distintas maquinas, PCs, en cierto tipo de red de comunicaciones,generalmente una LAN o una red de área amplia o una red como Internet,logrando así, que una sola tarea de procesamiento de datos pueda ser procesada oejecutada entre varias maquinas de la red, es decir que un solo proceso se puedarealizar entre varias maquinas diferentes y conectadas a una red. 22
  4. 4. Objetivo General Realizar informe, presentación y video sobre el Procesamiento Distribuido(Redes). Objetivos Específicos  Identificación del problema.  Búsqueda de la información.  Análisis de la información.  Tratamiento de la información.  Transformación de la información.  Elaboración de informa, presentación y video.  Aplicación de productos multimedia en el proceso didáctico (página web). 22
  5. 5. Procesamiento DistribuidoDefinición: Distintas máquinas pueden estar conectadas en una red de comunicación talque una sola tarea de procesamiento de datos puede ocupar muchas máquinas enla red. En general, cada servidor puede servir a muchos clientes, y cada clientepuede accesar muchos servidores. Un sistema de base de datos distribuido es cuando un cliente puede accesarmuchos servidores simultáneamente. Es decir, que una sola petición a "la base dedatos" puede combinar datos de varios servidores. Método de procesamiento de la información en el que varios procesos(programas en ejecución) en paralelo, en paralelo, en la misma máquina odistribuidos entre ordenadores o computadoras interconectados a través de una redde comunicaciones, colaboran en la realización de una tarea. Esta colaboraciónpude ser tan sencilla como distribuir la carga de trabajo entre procesos idénticos,en el caso por ejemplo de una red de cajeros automáticos, o tan complejo comomultitud de procesos distintos.Características:  Para cada uno de los usuarios debe ser similar al trabajo en el Sistema Centralizado.  Seguridad interna en el sistema distribuido.  Se ejecuta en múltiples computadoras.  Tiene varias copias del mismo Sistema Operativo o de diferentes Sistemas Operativos que proveen los mismos servicios.  Entorno de trabajo cómodo. 22
  6. 6.  Dependiente de redes (LAN, MAN, WAN, entre otros.).  Compatibilidad entre los dispositivos conectados.  Transparencia (El uso de múltiples procesadores y el acceso remoto debe ser invisible).  Interacción entre los equipos.  Diseño de software compatible con varios usuarios y Sistemas Operativos.Objetivo: El procesamiento distribuido ha sido diseñado para resolver problemasdemasiado grandes para cualquier supercomputadora y mainframe, mientras semantiene la flexibilidad de trabajar en múltiples problemas más pequeños.Clasificación: En términos de funcionalidad, las mallas (como también es conocido elprocesamiento distribuido) se clasifican en computacionales (incluyendo mallasde barrido de la CPU) y en mallas de datos; y en los estados son: 1. Globus: La herramienta Globus ha emergido como el estándar de facto para la capa intermedia (middleware) de la malla. Globus tiene recursos para manejar:  La gestión de recursos (Protocolo de Gestión de Recursos en Malla o Grid Resource Management Protocol).  Servicios de Información (Servicio de Descubrimiento y Monitorización o Monitoring and Discovery Service).  Gestión y Movimiento de Datos (Acceso Global al Almacenamiento Secundario, Global Access to secondary Storage y FTP en malla, GridFTP). 22
  7. 7. La mayoría de mallas que se expanden sobre las comunidades académicas y de investigación de Globus Toolkit como núcleo de la capa intermedia.2. XML: Los servicios web basados en XML ofrecen una forma de acceder a diversos servicios/aplicaciones en un entorno distribuido. Recientemente, el mundo de la informática en malla y los servicios web caminan juntos para ofrecer la malla con un servicio web. La arquitectura está definida por la Open Grid Services Architecture (OGSA). La versión 3.0 de Globus Toolkit, que actualmente se encuentra fase alfa, será una implementación de referencia acorde con el estándar OGSA. Las mallas ofrecen una forma de resolver grandes retos, como el plegamiento de las proteínas y descubrimiento de medicamentos, modelización financiera, simulación de terremotos, inundaciones y otras catástrofes naturales, modelización del clima/tiempo, entre otros. Ofrecen un camino para utilizar los recursos de las tecnologías de la información de forma óptima en una organización.3. Computación de Ciclos Redundantes: El modelo de computación de ciclos redundantes, también conocido como computación zombi, es el empleado por aplicaciones como SETI@Home, consistente en que un servidor o grupo de servidores distribuyen trabajo de procesamiento en grupo de computadoras voluntarias a ceder capacidad de procesamiento no utilizada. Básicamente, cuando dejamos nuestro ordenador encendido, pero sin utilizarlo, la capacidad de procesamiento se desperdicia por lo general en algún protector de pantalla, este tipo de procesamiento distribuido utiliza nuestra computadora cuando nosotros no la necesitamos, aprovechando al máximo la capacidad de procesamiento.4. Clustering: Otro método para crear sistemas de supercomputadoras es el clustering. Un cluster o racimo de computadoras consiste en un grupo de computadoras de relativo bajo costo conectadas entre sí 22
  8. 8. mediante un sistema de red de alta velocidad (Gigabit de fibra óptica por lo general) y un software que realiza la distribución de la carga de trabajo entre los equipos. Por lo general, este tipo de sistemas cuentan con un centro de almacenamiento de datos único. Los clusters tienen la ventaja de ser sistemas redundantes, al estar fuera de servicio el procesador principal se dispara y actúa como un Fail Over. 5. Grid: la computación en Grid o en malla es un nuevo paradigma de computación distribuida en el cual todos los recursos de un número indeterminado de computadores son englobados para ser tratados como un único superordenador de manera transparente. Estas computadoras englobadas no están conectadas o enlazadas firmemente, es decir, no tienen por qué estar en el mismo lugar geográfico. Se pueden tomar como ejemplo el proyecto SETI@Home, en el cual trabajan computadoras alrededor de todo el planeta para buscar vida extraterrestre.Seguridad: El punto de la seguridad es delicado en este tipo de computación distribuidapues las conexiones se hacen de forma remota y no local, entonces suelen surgirproblemas para controlar el acceso a los otros nodos. Esto puede aprovecharsepara un ataque de DOS, aunque la red no va a dejar de funcionar porque uno falle.Esa es una ventaja de este sistema Grid.Aplicaciones: Los ambientes en los que se encuentra con mayor frecuencia el uso de lasbases de datos distribuidas son:  Cualquier organización que tiene una estructura descentralizada. 22
  9. 9.  Casos típicos de lo anterior son: Organismos gubernamentales y/o servicio público.  La industria de la manufactura, particularmente, aquella con plantas múltiples. Por ejemplo, la industria automotriz.  Aplicaciones de control y comando militar.  Líneas de transportación aérea.  Cadenas hoteleras.  Servicios bancarios y financieros.Ejemplo: En una compañía, la realización de tareas que requieran altas capacidades deproceso, para lo cual se utilizarán los PCs conectados a la intranet de estaempresa. Sin embargo, si queremos afrontar un proyecto de ámbito universal ycon un elevado grado de complejidad habremos de ser capaces de abordarlomediante análisis diferenciales que puedan ser realizados de forma separada, enparalelo mediante diferentes máquinas presentes en nuestro ambicioso terreno dejuego: Internet. A continuación presentaremos dos de estos proyectos.El proyecto SETI@Home desarrollado por la Universidad de California enBerkeley comienza en Mayo de 1999. Más de 2 millones de voluntarios loconvierten en la experiencia más grande de procesamiento distribuido hasta lafecha. SETI (the Search for Extra-Terrestrial Inteligente) es un nombre colectivopara designar los diferentes programas encargados de buscar evidencias de vida enel cosmos. Para ello se utiliza como fuente los datos recogidos porradiotelescopios, que como si de grandes pabellones auditivos se tratase, seencargan de escudriñar el cielo en busca de señales de radio provenientes delespacio. Como se comprenderá, la capacidad de computación necesaria paraanalizar todos los datos que se recogen es desmesurada. Pero, ahí es precisamentedonde nace SETI@Home como proyecto de aplicación de computacióndistribuida de la Universidad de Berkeley. Los datos de partida en este caso son 22
  10. 10. los recogidos por el telescopio de Arecibo en Puerto Rico, el más grande delmundo. De una forma similar a SETI@Home surge una nueva iniciativa conjuntade las empresas Intel y United Devices centrada esta vez en la investigación delcáncer. En este caso se pone el procesamiento distribuido de Internet al servicio dela investigación molecular realizada en el departamento de Química de laUniversidad de Oxford en Inglaterra y la Fundación Nacional para laInvestigación del Cáncer en los EE.UU. El objetivo de estos centros es labúsqueda de drogas que actúen contra el cáncer y la leucemia. Para ello esnecesario realizar complejos análisis de compatibilidad molecular sobremoléculas, susceptibles de convertirse en un tratamiento efectivo para lo que seprecisa de una alta potencia de proceso.Arquitectura de Comunicaciones: Arquitectura Simple: Está dividida en 3 niveles:  Nivel de Acceso a la Red: Se ocupa del intercambio de datos entre el computador y la red a la que está conectada. El computador que emite debe proporcionarle a la red la dirección del destino, de forma que la red pueda encaminar los datos al destino apropiado.  Nivel de Transporte: Asegura que los datos lleguen a su aplicación de destino y que lo hacen en el mismo oren en que fueron enviados.  Nivel de Aplicación: Contiene la lógica necesaria para soportar varias aplicaciones de usuario. Para cada clase diferente de aplicación, como la transferencia de archivos, se necesitará un módulo separado y particular para la misma. Cada aplicación de un computador debe tener una dirección que sea únicadentro de su computador, lo que permite que el nivel de transporte envíe datos a la 22
  11. 11. aplicación correcta. Estas últimas direcciones se conocen como Puntos de Accesoal Sistema (SAP). Arquitectura OSI: La Organización Internacional de Estándares (ISO)desarrolló una arquitectura de comunicaciones conocida como modelo deInterconexión de Sistemas Abiertos (OSI). Una de las arquitecturas de redesexistentes se basa en el modelo OSI. Se compone de 7 capas, y cada una de ellasposee un protocolo denominado Protocolo de Capa, que establece las funcionesque debe cumplir. Las 7 capas del modelo son las siguientes:  Capa Física: Conecta el computador con el medio de comunicaciones. Controla y codifica la corriente de bits y permite que ésta sea transferida hacia la red o hacia otro computador.  Capa de Enlace: Responsable de establecer, mantener y desactivar el enlace entre el ETD fuente y el colector. Permite la transferencia ordenada de las tramas, detecta y corrige errores que pudieron haberse producido y contiene la dirección destino.  Capa de Red: Permite direccionar el tráfico de paquetes desde la fuente hasta una estación colectora remota. Mediante mecanismos de conmutación establece el camino que los paquetes deben seguir.  Capa de Transporte: Permite mantener la integridad de los datos en la comunicación. Proporciona el encaminamiento y la segmentación, y luego su unión en el mensaje original transmitido. Recupera errores, si fuera el caso. Esta capa maneja mensajes.  Capa de Sesión: Maneja las disponibilidades de red. Controla las memorias intermedias y verifica que la capacidad de procesamiento de ésta no se vea saturada por la cantidad de datos que se transfieren; provee la sincronización entre ETD.  Capa de Presentación: Se ocupa de la sintaxis de los datos, la conversión de código, la compresión y descompresión de la información, y todo otro tipo de funciones que se refieran a la modificación de los datos enviados. 22
  12. 12.  Capa de Aplicación: Controla y ejecuta las actividades que requiere una determinada aplicación para que pueda ser transmitida hacia el otro extremo. Facilita la transferencia de archivos y de mensajes de correo, emulando terminales virtuales, y permite el acceso a bases de datos remotas, o tareas que hacen el gerenciamiento de la red. Protocolo TCP/IP: La arquitectura TCP/IP está también estructura enniveles. Los niveles existentes son:  Acceso a la Red: Incluye los protocolos que ofrecen acceso a la red de comunicaciones. Los protocolos de este nivel se establecen entre un nodo de comunicaciones y un computador conectado.  Internet: Consta de los procedimientos necesarios para que los datos puedan atravesar múltiples redes entre computadores, ofreciendo una función de encaminamiento. El protocolo IP (Internet Protocol) se implementa en computadores y encaminadores (routers).  Transporte: Proporciona la lógica necesaria para asegurar que los datos intercambiados entre los computadores son enviados en forma fiable. El protocolo de este nivel en conocido como Transmission Control Protocol (TCP).  Aplicación: Incluye protocolos para aplicaciones específicas del usuario.Futuro del Procesamiento Distribuido: Aunque la idea de distribución de datos es bastante atractiva, su realizaciónconlleva la superación de una serie de dificultades tecnológicas entre las que sepueden mencionar:  Asegurar que el acceso entre diferentes sitios o nodos y el procesamiento de datos se realice de manera eficiente, presumiblemente óptima. 22
  13. 13.  Transformar datos e integrar diferentes tipos de procesamiento entre nodos de un ambiente distribuido.  Distribuir datos en los nodos del ambiente distribuido de una manera óptima.  Controlar el acceso a los datos disponibles en el ambiente distribuido.  Soportar la recuperación de errores de diferentes módulos del sistema de manera segura y eficiente.  Asegurar que los sistemas locales y globales permanezcan como una imagen fiel del mundo real evitando la interferencia destructiva que pueden ocasionar diferentes transacciones en el sistema. Así también, la aplicación de técnicas de distribución de informaciónrequiere de superar algunas dificultades de índole organizacional y algunas otrasrelacionadas con los usuarios. Entre ellas se puede mencionar:  El desarrollo de modelos para estimar la capacidad y el tráfico esperado en el sistema distribuido.  Soportar el diseño de sistemas de información. Por ejemplo, ayudar a decidir donde localizar algún dato particular o donde es mejor ejecutar un programa de aplicación.  Considerar la competencia que habrá por el uso de los recursos entre nodos diferentes. Aun cuando las dificultades mencionadas son importantes, las ventajas de ladistribución de información han promovido su aplicación en ambientes delpresente y del futuro. 22
  14. 14. Auditoria de Redes Es una serie de mecanismos mediante los cuales se pone a prueba una redinformática, evaluando su desempeño y seguridad, a fin de lograr una utilizaciónmás eficiente y segura de la información.Etapas de la Auditoria de Redes  Auditoria de Red Física  Auditoria de Red Lógica  Análisis de la Vulnerabilidad  Estrategia de Saneamiento  Plan de Contención ante posibles incidentes  Seguimiento Continuo del desempeño del SistemaAuditoria de Red Física  Áreas de equipo de comunicación con control de acceso  Protección y tendido adecuado de cables y líneas de comunicación para evitar accesos físicos  Control de utilización de equipos de prueba de comunicaciones para monitorear la red y el tráfico en ella.  Prioridad de recuperación del sistema  Control de las líneas telefónicas  Equipos de comunicaciones deben estar en un lugar cerrado y con acceso limitado  Seguridad fisica del equipo sea adecuada  Se tomen medidas para separar las actividades de los electricistass y de cableado de lineas telfonicas  Las lineas de comunicación esten fuera de la vista 22
  15. 15. Auditoria de Red Lógica  En líneas telefónicas: No debe darse el numero como público y tenerlas configuradas con retro-llamada, código de conexión o interruptores.  Usar contraseñas de acceso  Garantizar que en una transmisión, solo sea recibida por el destinatario.  Registrar actividades de los usuarios en la red.Comprobar  Encriptar la información pertinente  Evitar la importación y exportación de datos  Inhabilidad el software o hardware con acceso libre  Generar estadísticas de las tasas de errores y transmisión  Crear protocolos con detección de errores.Analisis de Vulnerabilidad Este es sin duda el punto más crítico de toda la Auditoria, debido a que deél dependerá directamente el curso de acción a tomar en las siguientes etapas y eléxito de estas.Estrategia de Saneamiento Se identifican las “brechas” en la red y se procede a “parchearlas”, ya seaactualizado el software afectado, reconfigurándolo de una manera mejor oremoviéndolo para reemplazarlo por otro software similar. 22
  16. 16. Plan de Contención Consta de elaborar un “Plan B”, que previa un incidente aun después detomadas las medidas de seguridad, y que da respuesta a posibles eventualidades.Seguimiento Continuo del desempeño del Sistema La seguridad no es producto, es un proceso. Constante mente surgennuevos fallos de seguridad, nuevos virus, nuevas herramientas que facilitan laintrusión en sistemas, como también nuevas y más efectivas tecnologías parasolucionar estos y otros problemas.Procedimiento y Metodología para Informe Procesamiento Distribuido1.- ¿Qué estrategias de búsqueda de Información se aplicará? La búsqueda de Información que aplicaremos es la búsqueda en Internet,como apoyo a la existente sobre procesamiento distribuido, de manera que sepueda definir que contenidos abarca el tema, que se desconoce o se tiene pococonocimientos, las relaciones y subtemas que abarcan el procedimiento distribuidoes decir, tipos de redes, arquitectura de cliente-servidor, procesamiento paralelo.Debido a que realiza una búsqueda en Internet la cual puede llegar hacer muyamplia, se hace uso de herramientas como buscadores que facilitan las búsquedade información, rapidez y con mayor validez, para ello es necesario definirpalabras claves como ayuda para obtener de información deseada.2. ¿Cuál será el proceso de Diseño a seguir? • Identificación del problema. • Búsqueda de la información. 22
  17. 17. • Análisis de la información. • Tratamiento de la información. • Transformación de la información.3.- Herramientas a Utilizar • Internet. • Libros. • Software GanttProject4.- ¿Cuál será el proceso para la Toma de Decisiones de las herramientas autilizar? Observación -> Comparación -> Codificación -> Organización ->Clasificación -> Resolución -> Evaluación -> Retroalimentación 22
  18. 18. Planificación 22
  19. 19. Página WebObjetivo GeneralDesarrollar un portal web que sirva de alojamiento y permita la visualización delos contenidos multimedia generados en el curso de Auditoría y Evaluación deSistemas, sirviendo de referencia para la búsqueda de información por parte deprofesionales o personas con actividades afines a la cátedra.Objetivos Específicos  Definir el nombre, la estructura organizativa y pautas generales del proyecto.  Crear un plan de trabajo para monitorear el trabajo.  Analizar y escoger la plataforma de desarrollo web que mejor satisfaga la necesidad con los recursos disponibles  Establecer el formato y la diagramación de los temas para el sitio web.  Diseñar una interfaz sencilla y cómoda para la visualización del contenido.  Preparar la ponencia del producto.   Presentar el producto en las VII Jornadas de Investigación Institucional UNEG. 22
  20. 20. Conclusión Un error común es confundir procesamiento distribuido y paralelo, eltermino “procesamiento paralelo”, básicamente es el mismo, con excepción quelas maquinas distintas tienden a estar físicamente muy cerca en un sistema“paralelo”, lo que no es necesario en un sistema “distribuido”. Por ejemplo unaaplicación distribuida podría ser una calculadora que usa una suma hecha en Javaen un equipo y la división implementada en C en otro equipo distinto. El procesamiento distribuido permite una mejor utilización de equipos ymejora el balanceo del procesamiento dentro de una aplicación, tiene una granimportancia debido a que en algunas aplicaciones simplemente no hay unamaquina que sea capaz de realizar todo el procesamiento. Para manejar este tipo de procesamiento en las aplicaciones existen diversasmaneras, siendo la arquitectura “cliente-servidor” la tendencia actual. Es tanto eluso actual de esta arquitectura que por diversas razones, el termino “cliente-servidor” ha llegado a aplicarse casi exclusivamente al caso en el que el cliente yel servidor están, en efecto en maquinas distintas. Una aplicación muy común del procesamiento distribuido es en las basesde datos, donde el Procesamiento distribuido podría realizar la entrada/salida, laselección y la validación de los datos en una computadora, y luego crear unreporte basado en esos datos o una consulta en otra computadora. 22
  21. 21. BibliografíaIan Foster, Carl Kesselman (1999). La Grilla 2: Planos para una NuevaInfraestructura Informática (The Grid 2: Blueprint for a New ComputingInfrastructure). Morgan Kaufmann Publishers. ISBN. Website.Fran Berman, Anthony J.G. Hey, Geoffrey Fox (2003). La malla informática:haciendo realidad la Infraestructura Global (Grid Computing: Making TheGlobal Infrastructure a Reality). Wiley. ISBN. Online version.http://www.lania.mx/biblioteca/seminarios/basedatos/arq2.htmlhttp://html.rincondelvago.com/bases-de-datos-distribuidas.htmlhttp://www.cs.cinvestav.mx/SC/prof_personal/adiaz/Disdb/Cap_1.htmlhttp://www.coit.es/publicac/publbit/bit131/internet.htm 22
  22. 22. 22
  23. 23. 22
  24. 24. 22

×