Eficiencia energeticahpc

333 views
243 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
333
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
3
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Eficiencia energeticahpc

  1. 1. CENTRO DE SUPERCOMPUTACIÓN DECASTILLA Y LEÓN<br />Eficiencia Energética en Centros de Supercomputación<br />
  2. 2. Objeto de la Fundación<br /> La Fundación es una entidad pública creada en 2008 que tiene por objeto la mejora de las tareas de la investigación de la Universidad, de los Centros de Investigación y de las empresas de Castilla y León<br />promoviendo acciones de innovación:<br />en el mundo de la Sociedad del Conocimiento<br />en el área de cálculo intensivo, <br />las comunicaciones, y <br />los servicios avanzados,<br />contribuyendo mediante el perfeccionamiento tecnológico al desarrollo económico de la Comunidad y a la mejora de la competitividad de las empresas.<br />
  3. 3. Presentación corporativa<br />Líneas de actuación<br />Promoción de la I+D+i en la Comunidad de Castilla y León <br />Dirigida a instituciones públicas y empresas privadas. <br />Papel proactivo en la captación de fondos dedicados a la realización de proyectos<br />Prestación de servicios de cálculo intensivo a los proyectos de investigación y desarrollo<br />Cursos de formación y eventos dirigidos a investigadores que les permitan aprovechar las infraestructuras disponibles en el Centro.<br />Difusión y divulgación de los aspectos relacionados con la aplicación de las tecnologías de la información, y especialmente de la supercomputación, en las actividades de I+D de la Comunidad. Esta tarea tiene dos públicos objetivos en la Comunidad:<br />La sociedad, a la que se han de hacer accesibles las actividades de la Fundación y el papel que tienen,<br />La comunidad científica e investigadora a la que se quiere atraer al Centro de Supercomputación para que incremente su producción científica.<br />Línea de investigación propia: Eficiencia energética<br />
  4. 4. El problema del consumo<br />El consumo eléctrico de los Centros de Proceso de Datos representa en Estados Unidos aproximadamente el 2% del consumo total de electricidad del país.<br />Este elevado consumo hace que las TI sean la segunda industria más contaminante del planeta, sólo por detrás de la aviación, y que al ritmo actual en poco tiempo pasará a ser la primera.<br />
  5. 5. Superordenados<br />The new IBM System installed at NASA's Goddard Space Flight Center<br />is the fastest, most powerful computer now in user operation.<br />It is specifically designed to handle ultra high-speed data processing for<br />scientific applications such as space exploration, theoretical astronomy,<br />sub-atomic physics and global weather forecasting.<br />Precio: 70 Millones $<br />Fuente: IBM Data Processing Division Press<br /><ul><li>Características
  6. 6. 2Mbytes RAM
  7. 7. 300Mbytes Tambor
  8. 8. 5MFLOPS</li></li></ul><li>Cambio en el Balance de Costes<br /><ul><li>De un escenario en el que el sistema tenía un gran peso respecto a Sala+Coste de Explotación se ha pasado al escenario actual:
  9. 9. Hardware muy barato: servidores de 12 núcleos por 2K€.
  10. 10. Un servidor “se consume a sí mismo”: el coste de electricidad a tres años es superior al precio de compra.
  11. 11. La electricidad es la factura más importante de la explotación, son necesarias tecnologías que nos incrementen la eficiencia energética
  12. 12. Los CPD’s albergan cada vez más hardware y por tanto más servicios: Los costes de operación se disparan.
  13. 13. Son necesarios sistemas de monitorización y gestión eficientes.
  14. 14. El coste de la sala es importante, pues el precio del m2 ha subido mucho.
  15. 15. Es necesario incrementar la densidad, con las consecuencias que esto tiene en las tecnologías de sala.</li></li></ul><li>Eficiencia<br />Si comenzamos a utilizar Clusters HPC por razones de eficiencia...<br />¿Por qué no los diseñamosparaqueseaneficientes?<br />
  16. 16. Ficha Técnica Proyecto<br />Proyecto de Infraestructura <br />Centro de Supercomputación<br />P1<br />Clúster Cálculo Paralelo304 nodos (2.432 cores)26 Tflops<br />Clúster Visualización(9 nodos)<br />Clúster Memoria Compartida16 nodos (256 cores)RAM: 3 Tbytes<br />Servicios del Centro(10 nodos)<br />Almacenamiento y Backup<br />110 Tbytes<br />Clúster GPUs14 TESLAS (3.360 cores)+7 nodos (56 cores)<br />16 Tflops<br />Inversión realizada: 4,5 Mio€<br />Máxima eficiencia energética (Potencia: 140 Kw / Consumo: 175 Kwh. PUE: 1,25)Mínimo requisito de espacio: 90m2<br />Centro: TIER 3,5 (Refrigeración redundada/ UPS redundada / Generador)<br />Implantación de ISO 27001<br />
  17. 17. Ficha Técnica Proyecto<br />Posicionamiento en España<br />El Primer Centro por su eficiencia energética en España<br /><ul><li>Eficiencia media aumenta el10% (98 MFlops/Watt --> 108 MFlops/Watt),
  18. 18. La potencia agregada de la lista aumentó en un 15% (200 MW --> 230 MW) </li></li></ul><li>Buenas Prácticas<br /><ul><li>En las infraestructuras
  19. 19. En los procedimientos de Explotación</li></li></ul><li>Nuevos Retos<br /><ul><li>Alta Densidad >40Kw/rack
  20. 20. “Meter” 40Kw en un rack no es fácil… “sacarlos” es aún más difícil</li></li></ul><li>Densidad<br /><ul><li>128 Servidores (1024 cores)/rack
  21. 21. 4 Chasis Blade
  22. 22. 32 Servidores por chasis
  23. 23. 24 fuentes de alimentación 2200W
  24. 24. 24 Cables de alimentación C19
  25. 25. 16 switches gigabit/rack
  26. 26. 16 switches Infiniband DDR/rack</li></li></ul><li>Nuevos Conceptos de Frio<br /><ul><li>Pasillo Caliente Cerrado (HACS) / Armario Cerrado (RACS)
  27. 27. Agua
  28. 28. Intercambiadores de Calor a bordo del rack.
  29. 29. Free Cooling</li></li></ul><li>Nuevos Conceptos de Frio<br />
  30. 30. ¿Sólo en el Frio y en la electricidad?<br /><ul><li>Opción A: L5420 (50W)
  31. 31. Opción B: X5460 (120W)
  32. 32. Linpack: 16,8 TeraFLOPS
  33. 33. Consumo: 90Kw/h
  34. 34. Eficiencia: 186MFLOPS/W
  35. 35. Coste compra: 1
  36. 36. Coste total 3 años: 1,45
  37. 37. Linpack: 19,6 TeraFLOPS
  38. 38. Consumo: 125Kw/h
  39. 39. Eficiencia: 157 MFLOPS/W
  40. 40. Coste compra: 1,22
  41. 41. Coste total 3 años: 1,86</li></ul>Los 2,8 TeraFLOPSadicionalestienen un costedesmesurado!!<br />
  42. 42. Procedimientos de Explotación<br /><ul><li>Una vez conseguidas unas infraestructuras energéticamente eficientes, hay que atender a los procedimientos de explotación
  43. 43. En un Centro de Supercomputación, lo idóneo es encender y apagar nodos bajo demanda</li></li></ul><li>Gestión Proactiva<br /><ul><li>Debe disponerse de las herramientas necesarias para poder realizar una gestión activa que optimice el consumo</li></li></ul><li>Proyecto Monica<br /><ul><li>Sistema de monitorización multidimensional con gestión inteligente de la Eficiencia Energética para Centros de Procesos de Datos ultradensos orientados a HPC y Cloud Computing.
  44. 44. Concepto de CPD como “planta industrial”
  45. 45. Gestión jerárquica y multidimensional de todos los componentes del CPD
  46. 46. Toma de decisiones automática siguiendo las reglas de negocio, entre las que se encuentra la eficiencia energética</li></li></ul><li>Conclusiones<br /><ul><li>La eficiencia energética es uno de los grandes reto de las TIC de hoy
  47. 47. Los requerimientos de los sistemas de hoy en día han vuelto obsoletas las tecnologías de CPD en muy poco tiempo
  48. 48. Del gran CPD al CPD compacto, y del CRAC al armario cerrado con intercambiador: el vuelco es drástico
  49. 49. No sirve de nada tener una nevera de clase “A” con la puerta abierta: infraestructuras eficientes tienen que ir acompañadas de procedimientos eficientes.
  50. 50. El cambio no ha hecho más que empezar: el futuro es la virtualización total, en el que las reglas de funcionamiento se basará en dos pilares: el SLA y la eficiencia energética.
  51. 51. El Cloud tiene como resultado CPD’s muy densos con sistemas completamente virtualizados: hacia la gestión energética total.</li></li></ul><li>www.fcsc.es<br />Fundación Centro Supercompurtación de Castilla y León<br />Edificio CRAI-TIC<br />Campus de Vegazana s/n<br />24071 León (España)<br />Tlf.: (+34) 987 29 3160<br />Copyright © 2008, Fundación Centro de Supercomputación de Castilla y León. Redondo Gil, C.<br />FCSCCYL Confidential – For Use under NDA only.<br />All plans, dates and figures are subject to change without any notice as they apply.<br />Other names and brands may be claimed as the property of other.<br />

×