Freddy Martin Coronel Flores UTPL [email_address] ,  [email_address]   Configuración de un Cluster PelicanHPC para el anál...
<ul><li>El aprovechamiento de los recursos computacionales comprende un campo con un creciente interés en ambientes con un...
<ul><li>General. </li></ul><ul><ul><li>Analizar el desempeño del algoritmo Jacobi en una arquitectura paralela. </li></ul>...
 
<ul><li>Instalación y Configuración del Cluster </li></ul>
 
 
 
 
 
<ul><li>Configuración y Monitoreo </li></ul>
<ul><li>Utilidad contenida en PelicanHPC para monitoreo del equipo. </li></ul><ul><li>Fácil de usar y con interfaz gráfica...
<ul><li>Abrir KsysGuard. </li></ul><ul><li>Cargar Configuraciones por defecto. (File – Load Standard Sheets) </li></ul><ul...
 
<ul><li>Algoritmo de Jacobi </li></ul>
 
 
 
<ul><li>http://www.del.icio.us/martincx </li></ul><ul><li>http://martincx.wordpress.com </li></ul><ul><li>http://www.slide...
<ul><li>[1] PACHECO, Peter. Paralell Programming with MPI, Morgan Kaufmann Publishers. 2003 </li></ul><ul><li>[2] REYES, V...
Upcoming SlideShare
Loading in...5
×

Presentacion Proyecto Multiprocesamiento

2,923

Published on

Presentacion del proyecto "Resolucion de Sistemas de Ecuaciones Lineales usando Open MPI". Implementación del Algoritmo de Jacobi en un PelicanHPC

Published in: Technology
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
2,923
On Slideshare
0
From Embeds
0
Number of Embeds
5
Actions
Shares
0
Downloads
74
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Presentacion Proyecto Multiprocesamiento

  1. 1. Freddy Martin Coronel Flores UTPL [email_address] , [email_address] Configuración de un Cluster PelicanHPC para el análisis de rendimiento de Algoritmos paralelos C del Método de Jacobi , ejecutado en Open MPI
  2. 2. <ul><li>El aprovechamiento de los recursos computacionales comprende un campo con un creciente interés en ambientes con una gran capacidad de cómputo y procesamiento de grandes bancos de información o donde se requiere modelar sistemas altamente especializados tales como en la biología, genética, astronomía, economía, meteorología y resolución de problemas matemáticos complejos. </li></ul><ul><li>Con el fin de presentar una alternativa menos costosa, más simple y mejor en contraste a los casi inaccesibles supercomputadores se implementan los clusters (grupos de ordenadores conectados en red orquestados de tal forma que funcionan como un solo equipo), en este trabajo se han considerado las soluciones NO-Windows y como alternativa se ha elegido a PelicanHPC por razones posteriormente expuestas sobre el cual se evaluará al Algoritmo de Jacobi programado en C para la resolución de sistemas de ecuaciones lineales. </li></ul>
  3. 3. <ul><li>General. </li></ul><ul><ul><li>Analizar el desempeño del algoritmo Jacobi en una arquitectura paralela. </li></ul></ul><ul><li>Específicos.  </li></ul><ul><ul><li>Montar un cluster GNU/Linux PelicanHPC (High Performance Cluster) para computación paralela. </li></ul></ul><ul><ul><li>Evaluar al Open MPI como entorno para correr programas c. </li></ul></ul>
  4. 5. <ul><li>Instalación y Configuración del Cluster </li></ul>
  5. 11. <ul><li>Configuración y Monitoreo </li></ul>
  6. 12. <ul><li>Utilidad contenida en PelicanHPC para monitoreo del equipo. </li></ul><ul><li>Fácil de usar y con interfaz gráfica. </li></ul><ul><li>Puede ser configurada para monitoreo del cluster. </li></ul>
  7. 13. <ul><li>Abrir KsysGuard. </li></ul><ul><li>Cargar Configuraciones por defecto. (File – Load Standard Sheets) </li></ul><ul><li>Conectar Nodo. Clic en File – Connect Host – o – clic en el icono </li></ul><ul><li>Repetir Proceso. N nodos </li></ul>
  8. 15. <ul><li>Algoritmo de Jacobi </li></ul>
  9. 19. <ul><li>http://www.del.icio.us/martincx </li></ul><ul><li>http://martincx.wordpress.com </li></ul><ul><li>http://www.slideshare.net/martincx </li></ul>
  10. 20. <ul><li>[1] PACHECO, Peter. Paralell Programming with MPI, Morgan Kaufmann Publishers. 2003 </li></ul><ul><li>[2] REYES, Vicente. Procesamiento Paralelo en Redes Linux Utilizando MPI </li></ul><ul><li>[3] CREEL, Michael. PelicanHCP Tutorial. Universitat Autònoma de Barcelona. Disponible en: http://pareto.uab.es/mcreel/PelicanHPC/Tutorial/PelicanTutorial.html </li></ul><ul><li>[4] Manual de Debian. Disponible en: http://debian-live.alioth.debian.org/ </li></ul><ul><li>[5] Metodo de Jacobi. Disponible en: http://www.math-linux.com/spip.php?article49 </li></ul><ul><li>[6] Metodos Iterativos. Disponible en : www.uam.es/personal_pdi/ciencias/cbrandle/Docencia/0506/lineal-iterativos.pdf </li></ul><ul><li>[7] Introduction to MPI. Disponible en: http://webct.ncsa.uiuc.edu:8900/webct/public/show_courses.pl </li></ul><ul><li>[8] MPI: The Complete Reference. Disponible en: http://www.netlib.org/utk/papers/mpi-book/mpi-book.html </li></ul><ul><li>[9] Descarga del PelicanHPC. http://pareto.uab.es/mcreel/PelicanHPC/download/ </li></ul><ul><li>[10] Configurar KsysGuard Cluster Knoppix. http://www.nabble.com/How-to-set-up-a-cluster-monitor-using-ksysguardd-p20657315.html </li></ul>
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×