¿Qué es la supercomputación? Una explicación orientada al mundo empresarial  José M. Cela Director departamento CASE  BSC-...
Índice de la charla <ul><li>¿Qué es la supercomputación? </li></ul><ul><ul><li>Evolución de los computadores: 1945-2020 </...
Tendencia tecnológica: Capacidad del microprocesador 2X transistores/Chip cada 1.5 años llamada “ Ley de Moore ” Moore’s L...
Organización del microprocesador: Cadena de producción (H. Ford)
Cuello de botella en el acceso a memoria DRAM <ul><li>No todo escala igual de rápido </li></ul><ul><ul><li>El tiempo de ac...
Latencia y  pipelines
Supercomputador = SMP-clusters <ul><li>Los supercomputadores actuales son SMP clusters </li></ul><ul><ul><li>Varia el núme...
La velocidad de cálculo y su coste <ul><li>Costes asociados a la computación </li></ul><ul><ul><li>Hardware </li></ul></ul...
Las aplicaciones definen el computador <ul><li>Aplicaciones fuertemente acopladas </li></ul><ul><ul><li>CDF </li></ul></ul...
GRID: verdades y mentiras <ul><li>Verdades </li></ul><ul><ul><li>Se puede enviar trabajos remotos de forma automatizada </...
Supercomputing vs. Grid computing <ul><li>Supercomputing </li></ul><ul><ul><li>Homogéneo  y localizado </li></ul></ul><ul>...
TOP500
Incrementar el rendimiento de la CPU: un balance delicado Hasta hace poco vimos aumentar el número de transistores y la fr...
Multicore chips
¿Cómo van ha reducir la potencia los computadores? <ul><li>Reducir la cantidad de DRAM/core y rediseñar toda la electrónic...
Blue Gene/P 13.6 GF/s 8 MB EDRAM 4 processors 1 chip, 20 DRAMs 13.6 GF/s 2.0 (or 4.0) GB DDR Supports 4-way SMP 32 Node Ca...
Cell Broadband Engine Architecture™ (CBEA) Technology Competitive Roadmap Performance Enhancements/ Scaling Advanced Cell ...
Primer computador PetaFlop (Nov2008): Roadrunner en LANL “ Connected Unit” cluster 192 Opteron nodes (180 w/ 2 dual-Cell b...
Green 500 57 126 Blue Gene/P Solution RZG/Max-Planck-Gesellschaft MPI/IPP 371.67 9 56 126 Blue Gene/P Solution IBM - Roche...
<ul><li>El nivel MPI seguirá igual </li></ul><ul><li>Todos los códigos deberán ser híbridos por problemas de balanceo de c...
<ul><li>Misión </li></ul><ul><ul><li>Investigar, desarrollar y gestionar tecnología de computación que facilite el avance ...
Personal <ul><li>El BSC-CNS a final de 2008 tiene 200 miembros de 21 países diferentes (Alemania, Argentina, Bélgica, Bras...
Departamentos del BSC <ul><li>Air quality  </li></ul><ul><li>Meteorological modeling  </li></ul><ul><li>Climate change   <...
Blades, blade center and racks JS21 Processor Blade •  2x2 PPC 970 MP 2,3 GHz •  8 GB memory  •  36 Gigabytes HD SAS •  2x...
Myrinet Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x2...
MareNostrum <ul><li>2560 JS21 </li></ul><ul><ul><li>2 PPC 790 MP 2,3 GHz </li></ul></ul><ul><ul><li>8 Gigabytes  (20 TB) <...
Sistemas adicionales <ul><li>Robot de cintas </li></ul><ul><ul><li>SL8500 installation </li></ul></ul><ul><ul><li>6 Petaby...
Servicios a empresas <ul><li>EL  20%  del tiempo de MareNostrum es para uso interno del BSC. </li></ul><ul><ul><li>Artícul...
BSC-IBM MareIncognito project <ul><li>Our 10-100 Petaflop research project for BSC (2010) </li></ul><ul><li>Port/develop a...
Actividades de CASE <ul><li>Computational Mechanics </li></ul><ul><li>Applied Computer Science </li></ul><ul><li>Optimizat...
Objetivos de CASE <ul><li>Identificar comunidades científicas que necesiten supercomputación y ayudarles a desarrollar sof...
<ul><li>Conclusiones </li></ul>
<ul><li>Supercomputadores (MPI) </li></ul><ul><ul><li>Procesador heterogeneo sin coherencia de cache </li></ul></ul><ul><u...
<ul><li>BSC-CNS </li></ul><ul><ul><li>Centro al servicio de las empresas españolas que requieran supercomputación </li></u...
¿Por qué la supercomputación? Could not exist as a business Unable to compete, product testing and quality issues Unable t...
Upcoming SlideShare
Loading in...5
×

Que es la supercomputacion una explicacion orientada al mundo empresarial

730

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
730
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
8
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide
  • Tomosulo comment on complexity of O-O-O
  • Access latency for main memory, even using a modern SDRAM with a CAS latency of 2, will typically be around 9 cycles of the **memory system clock** -- the sum of The latency between the FSB and the chipset (Northbridge) (+/- 1 clockcycle) The latency between the chipset and the DRAM (+/- 1 clockcycle) The RAS to CAS latency (2-3 clocks, charging the right row) The CAS latency (2-3 clocks, getting the right column) 1 cycle to transfer the data. The latency to get this data back from the DRAM output buffer to the CPU (via the chipset) (+/- 2 clockcycles) Assuming a typical 133 MHz SDRAM memory system (eg: either PC133 or DDR266/PC2100), and assuming a 1.3 GHz processor, this makes 9*10 = 90 cycles of the CPU clock to access main memory! Yikes, you say! And it gets worse – a 1.6 GHz processor would take it to 108 cycles, a 2.0 GHz processor to 135 cycles, and even if the memory system was increased to 166 MHz (and still stayed CL2), a 3.0 GHz processor would wait a staggering 162 cycles! Caches make the memory system seem almost as fast as the L1 cache, yet as large as main memory. A modern primary (L1) cache has a latency of just two or three **processor cycles**, which is dozens of times faster than accessing main memory, and modern primary caches achieve hit rates of around 90% for most applications. So 90% of the time, accessing memory only takes a couple of cycles. Good overview http://www.pattosoft.com.au/Articles/ModernMicroprocessors/
  • 72x32x32 may become 48x48x32. 2x as many cards, FRU is half as big Still 1024 chips per rack
  • Esto es lo que podriamos tener según la lista de Junio, pero se confirmara. Todavia pendiente de correr el linpack completo Felicitar a los equipos que los han permitido: trazas, linpack, sistemas
  • Que es la supercomputacion una explicacion orientada al mundo empresarial

    1. 1. ¿Qué es la supercomputación? Una explicación orientada al mundo empresarial José M. Cela Director departamento CASE BSC-CNS [email_address]
    2. 2. Índice de la charla <ul><li>¿Qué es la supercomputación? </li></ul><ul><ul><li>Evolución de los computadores: 1945-2020 </li></ul></ul><ul><ul><li>Costes y beneficios de la supercomputación </li></ul></ul><ul><li>¿Qué es el BSC-CNS? </li></ul><ul><ul><li>Estructura </li></ul></ul><ul><ul><li>Servicios a la comunidad científica </li></ul></ul><ul><ul><li>Actividades de transferencia de tecnología con empresas </li></ul></ul><ul><ul><li>Formación </li></ul></ul><ul><li>Conclusiones </li></ul>
    3. 3. Tendencia tecnológica: Capacidad del microprocesador 2X transistores/Chip cada 1.5 años llamada “ Ley de Moore ” Moore’s Law Los microprocesadores son menores, mas densos y mas potentes. Otros dispositivos también mejoran sus prestaciones. Gordon Moore (co-fundador de Intel) predijo in 1965 que la densidad de transistores por unidad de área se doblaría cada 18 meses.
    4. 4. Organización del microprocesador: Cadena de producción (H. Ford)
    5. 5. Cuello de botella en el acceso a memoria DRAM <ul><li>No todo escala igual de rápido </li></ul><ul><ul><li>El tiempo de acceso a una DRAM se mejora muy lentamente </li></ul></ul>
    6. 6. Latencia y pipelines
    7. 7. Supercomputador = SMP-clusters <ul><li>Los supercomputadores actuales son SMP clusters </li></ul><ul><ul><li>Varia el número de procesadores por nodo </li></ul></ul><ul><ul><li>Varia el tipo de red de interconexión </li></ul></ul><ul><li>Estas máquinas se programan usando </li></ul><ul><ul><li>Procesos paralelos  MPI ( Message Passing Interface ) </li></ul></ul><ul><ul><li>Threads paralelos  openMP </li></ul></ul>
    8. 8. La velocidad de cálculo y su coste <ul><li>Costes asociados a la computación </li></ul><ul><ul><li>Hardware </li></ul></ul><ul><ul><li>Software de entorno (compiladores, debugers, librerías, …) </li></ul></ul><ul><ul><li>Personal </li></ul></ul><ul><ul><ul><li>que sabe programar el sistema y usar los programas generados </li></ul></ul></ul><ul><ul><ul><li>que gestiona el sistema </li></ul></ul></ul><ul><ul><li>Energía y espacio </li></ul></ul><ul><li>Para cada tamaño de máquina y problema la relación de estos costes varía </li></ul>
    9. 9. Las aplicaciones definen el computador <ul><li>Aplicaciones fuertemente acopladas </li></ul><ul><ul><li>CDF </li></ul></ul><ul><ul><li>Mecánica Comp. </li></ul></ul><ul><ul><li>… </li></ul></ul><ul><li>Aplicación débilmente acoplada </li></ul><ul><ul><li>Animación </li></ul></ul><ul><ul><li>Monte-Carlo </li></ul></ul><ul><ul><li>Estudio paramétrico </li></ul></ul><ul><ul><li>… </li></ul></ul><ul><li>Supercomputing </li></ul><ul><ul><li>Red de altas prestaciones </li></ul></ul><ul><li>GRID Computing </li></ul><ul><ul><li>Cualquier red, cuanto mas barata mejor </li></ul></ul>
    10. 10. GRID: verdades y mentiras <ul><li>Verdades </li></ul><ul><ul><li>Se puede enviar trabajos remotos de forma automatizada </li></ul></ul><ul><ul><li>Se puede sacar mas provecho a una red corporativa en algunos casos </li></ul></ul><ul><ul><li>Para ciertas aplicaciones es una opción económica viable </li></ul></ul><ul><li>Mentiras </li></ul><ul><ul><li>Los costes siempre son menores que en un centro de cálculo y la calidad de servicio es igual </li></ul></ul><ul><ul><li>Todo tipo de problema puede usar la Grid </li></ul></ul><ul><ul><li>Puedo usar maquinas ajenas bajo demanda </li></ul></ul><ul><ul><li>El usuario no debe preocuparse de que la Grid sea heterogénea </li></ul></ul>
    11. 11. Supercomputing vs. Grid computing <ul><li>Supercomputing </li></ul><ul><ul><li>Homogéneo y localizado </li></ul></ul><ul><ul><li>Red de alta velocidad ( L= 5  s, BW = 4 Gbit/s, no bloqueante) </li></ul></ul><ul><li>Grid computing </li></ul><ul><ul><li>Heterogéneo y distribuido geográficamente </li></ul></ul><ul><ul><li>Internet (L= ms-s, BW=10kbits-1Mbit) </li></ul></ul><ul><li>Cloud computing </li></ul><ul><ul><li>Homogéneo y localizado </li></ul></ul><ul><ul><li>Red barata (Ethernet) </li></ul></ul>
    12. 12. TOP500
    13. 13. Incrementar el rendimiento de la CPU: un balance delicado Hasta hace poco vimos aumentar el número de transistores y la frecuencia del reloj. Disipar la potencia se ha convertido en el mayor problema: Procesador de Intel > 100 Watts La frecuencia de reloj no se puede aumentar más. Sin embargo, el numero de transistores seguirá aumentando. Lower Voltage Increase Clock Rate & Transistor Density Core Cache Core Cache Core C1 C2 C3 C4 Cache C1 C2 C3 C4 Cache C1 C2 C3 C4 C1 C2 C3 C4 C1 C2 C3 C4 C1 C2 C3 C4
    14. 14. Multicore chips
    15. 15. ¿Cómo van ha reducir la potencia los computadores? <ul><li>Reducir la cantidad de DRAM/core y rediseñar toda la electrónica para que consuma menos </li></ul><ul><ul><li>Blue Gene </li></ul></ul><ul><li>Hacer chips multicore sin coherencia de cache y con procesadores especializados </li></ul><ul><ul><li>Cell/B.E. </li></ul></ul><ul><ul><li>GPUs </li></ul></ul><ul><ul><li>FPGAs </li></ul></ul>
    16. 16. Blue Gene/P 13.6 GF/s 8 MB EDRAM 4 processors 1 chip, 20 DRAMs 13.6 GF/s 2.0 (or 4.0) GB DDR Supports 4-way SMP 32 Node Cards 1024 chips, 4096 procs 14 TF/s 2 TB 72 Racks Final System:1 PF/s,144 TB November 2007: 0.596 PF/s Cabled 8x8x16 Rack System Compute Card Chip 435 GF/s 64 GB Front End Node / Service Node JS21 / Power5 Linux SLES10 Blue Gene/P continues Blue Gene’s leadership performance in a space-saving, power-efficient package for the most demanding and scalable high-performance computing applications HPC SW: Compilers GPFS ESSL Loadleveler (32 chips 4x4x2) 32 compute, 0-1 IO cards Node Card
    17. 17. Cell Broadband Engine Architecture™ (CBEA) Technology Competitive Roadmap Performance Enhancements/ Scaling Advanced Cell BE (1+8eDP SPE) 65nm SOI Cell BE (1+8) 90nm SOI Cost Reduction All future dates and specifications are estimations only; Subject to change without notice. Dashed outlines indicate concept designs. Next Gen ( 2PPE’+32SPE’) 45nm SOI ~1 TFlop (est.) Cell BE (1+8) 65nm SOI 2010 2009 2008 2007 2006
    18. 18. Primer computador PetaFlop (Nov2008): Roadrunner en LANL “ Connected Unit” cluster 192 Opteron nodes (180 w/ 2 dual-Cell blades connected w/ 4 PCIe x8 links) ~7,000 dual-core Opterons  ~50 TeraFlop/s (total) ~ 13,000 eDP Cell chips  1.4 PetaFlop/s (Cell) CU clusters 2 nd stage InfiniBand 4x DDR interconnect (18 sets of 12 links to 8 switches) 2 nd Generation IB 4X DDR
    19. 19. Green 500 57 126 Blue Gene/P Solution RZG/Max-Planck-Gesellschaft MPI/IPP 371.67 9 56 126 Blue Gene/P Solution IBM - Rochester 371.67 9 75 94.5 Blue Gene/P Solution ASTRON/University Groningen 371.67 8 1 2483.47 BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz , Voltaire Infiniband DOE/NNSA/LANL 444.94 7 42 138 BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz , Infiniband IBM Poughkeepsie Benchmarking Center 458.33 5 41 138 BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz , Infiniband DOE/NNSA/LANL 458.33 5 431 26.38 BladeCenter QS22 Cluster, PowerXCell 8i 3.2 Ghz, Infiniband Repsol YPF 530.33 2 430 26.38 BladeCenter QS22 Cluster, PowerXCell 8i 3.2 Ghz, Infiniband Repsol YPF 530.33 2 429 26.38 BladeCenter QS22 Cluster, PowerXCell 8i 3.2 Ghz, Infiniband Repsol YPF 530.33 2 220 34.63 BladeCenter QS22 Cluster, PowerXCell 8i 4.0 Ghz, Infiniband Interdisciplinary Centre for Mathematical and Computational Modelling, University of Warsaw 536.24 1 TOP500 Rank* Total Power (kW) Computer* Site* MFLOPS/W Green500 Rank
    20. 20. <ul><li>El nivel MPI seguirá igual </li></ul><ul><li>Todos los códigos deberán ser híbridos por problemas de balanceo de carga </li></ul><ul><ul><li>openMP en multiprocesadores homogéneos </li></ul></ul><ul><ul><li>Pero en procesadores heterogeneos </li></ul></ul><ul><ul><ul><li>openCL (IBM, NVIDIA) </li></ul></ul></ul><ul><ul><ul><li>CUDA (NVIDIA) </li></ul></ul></ul><ul><ul><ul><li>… </li></ul></ul></ul><ul><li>El compilador debe generar el código SIMD de forma automática </li></ul>¿Cómo se van ha programar estos procesadores?
    21. 21. <ul><li>Misión </li></ul><ul><ul><li>Investigar, desarrollar y gestionar tecnología de computación que facilite el avance científico </li></ul></ul><ul><li>Objetivos </li></ul><ul><ul><li>Operar la infraestructura nacional de supercomputación nacional </li></ul></ul><ul><ul><li>I+D en Supercomputación </li></ul></ul><ul><ul><li>Colaborar en I+D en eCiencia </li></ul></ul><ul><li>Consorcio Publico </li></ul><ul><ul><li>Gobierno Español (MEC) 51% </li></ul></ul><ul><ul><li>Generalitat Catalana (DURSI) 37% </li></ul></ul><ul><ul><li>UPC 12% </li></ul></ul>Barcelona Supercomputing Center Centro Nacional de Supercomputación
    22. 22. Personal <ul><li>El BSC-CNS a final de 2008 tiene 200 miembros de 21 países diferentes (Alemania, Argentina, Bélgica, Brasil, Bulgaria, Canadá, Colombia, China, Cuba, Dinamarca, España, Estados Unidos, Francia, India, Irlanda, Italia, Líbano, México, Polonia, Reino Unido, Rusia, Serbia y Turquía). </li></ul>
    23. 23. Departamentos del BSC <ul><li>Air quality </li></ul><ul><li>Meteorological modeling </li></ul><ul><li>Climate change </li></ul><ul><li>Molecular Modeling and Bioinformatics </li></ul><ul><li>Computational Genomics </li></ul><ul><li>Protein Interactions and Docking </li></ul><ul><li>Electronic and Atomic Protein Modeling </li></ul><ul><li>Computational Mechanics </li></ul><ul><li>Applied Computer Science </li></ul><ul><li>Optimization </li></ul><ul><li>Support to MareNostrum </li></ul><ul><li>Services </li></ul><ul><li>Computer Architecture </li></ul><ul><li>Performance Tools </li></ul><ul><li>Programming Models </li></ul><ul><li>Grid Computing </li></ul><ul><li>e-Business Platforms </li></ul>COMPUTER APPLICATIONS in SCIENCE & ENGINEERING OPERATIONS LIFE SCIENCES EARTH SCIENCES COMPUTER SCIENCES
    24. 24. Blades, blade center and racks JS21 Processor Blade • 2x2 PPC 970 MP 2,3 GHz • 8 GB memory • 36 Gigabytes HD SAS • 2x1Gb Ethernet on board • Myrinet daughter card Blade Center • 14 blades per chassis (7U) • 56 processors • 112 GB memory • Gigabit ethernet switch 6 chassis in a rack (42U) • 336 processors • 672 GB memory
    25. 25. Myrinet Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Clos 256x256 Spine 1280 Spine 1280 256 links (1 to each node) 250MB/s each direction 128 Links 0 255 …
    26. 26. MareNostrum <ul><li>2560 JS21 </li></ul><ul><ul><li>2 PPC 790 MP 2,3 GHz </li></ul></ul><ul><ul><li>8 Gigabytes (20 TB) </li></ul></ul><ul><ul><li>36 Gigabytes HD SAS </li></ul></ul><ul><ul><li>Myrinet daughter card </li></ul></ul><ul><ul><li>2x1Gb Ethernet on board </li></ul></ul><ul><li>Myrinet </li></ul><ul><ul><li>10 clos256+256 </li></ul></ul><ul><ul><li>2 spines 1280s </li></ul></ul><ul><li>20 Storage nodes </li></ul><ul><ul><li>2 P615, 2 Power4+, 4 GigaBytes </li></ul></ul><ul><ul><li>28 SATA disc, 512 Gbytes (280 TB) </li></ul></ul><ul><li>Performance Summary </li></ul><ul><li>10240 processors (PPC970, 4 inst/ciclo, 2.3 GHz) </li></ul><ul><li>94,21 TFlops </li></ul><ul><li>20 TB Memory </li></ul><ul><li>300 TB disk </li></ul>Blade centers Myrinet racks Storage servers Operations rack Gigabit switch 10/100 switches
    27. 27. Sistemas adicionales <ul><li>Robot de cintas </li></ul><ul><ul><li>SL8500 installation </li></ul></ul><ul><ul><li>6 Petabytes </li></ul></ul><ul><ul><li>LTO4 Technology </li></ul></ul><ul><li>ALTIX (SGI, shared memory) </li></ul><ul><ul><li>128 Montecito 1.6 GHz </li></ul></ul><ul><ul><li>2.5 Tbyte Main Memory </li></ul></ul>
    28. 28. Servicios a empresas <ul><li>EL 20% del tiempo de MareNostrum es para uso interno del BSC. </li></ul><ul><ul><li>Artículos científicos </li></ul></ul><ul><ul><li>Proyectos con empresas </li></ul></ul><ul><li>El BSC sólo hace proyectos de I+D. </li></ul><ul><li>No vendemos tiempo de CPU de forma sistemática. Sólo realizamos pruebas de concepto. </li></ul><ul><li>Para cualquier pregunta contactar con </li></ul><ul><ul><li>José Mª Cela (josem.cela@bsc.es) </li></ul></ul>
    29. 29. BSC-IBM MareIncognito project <ul><li>Our 10-100 Petaflop research project for BSC (2010) </li></ul><ul><li>Port/develop applications to reduce time-to-production once installed </li></ul><ul><li>Programming models </li></ul><ul><li>Tools for application development and to support previous evaluations </li></ul><ul><li>Evaluate node architecture </li></ul><ul><li>Evaluate interconnect options </li></ul>Performance analysis and Prediction Tools Processor and node Load balancing Interconnect Application development an tuning Fine-grain programming models Model and prototype
    30. 30. Actividades de CASE <ul><li>Computational Mechanics </li></ul><ul><li>Applied Computer Science </li></ul><ul><li>Optimization </li></ul>COMPUTER APPLICATIONS in SCIENCE & ENGINEERING OPERATIONS LIFE SCIENCES EARTH SCIENCES COMPUTER SCIENCES
    31. 31. Objetivos de CASE <ul><li>Identificar comunidades científicas que necesiten supercomputación y ayudarles a desarrollar software que explote de forma eficiente los recursos del supercomputador </li></ul><ul><ul><li>Ciencia de los Materiales (SIESTA) </li></ul></ul><ul><ul><li>Fusión (EUTERPE, EIRENE, BIT, …) </li></ul></ul><ul><ul><li>Espectroscopia (OCTOPUS, ALYA) </li></ul></ul><ul><ul><li>Modelado atmosférico (ALYA, WRF) </li></ul></ul><ul><ul><li>Geofísica (BSIT, ALYA) </li></ul></ul><ul><li>Desarrollar nuestra propia tecnología en Mecánica Computacional </li></ul><ul><ul><li>ALYA, BSIT, … </li></ul></ul><ul><li>Realizar transferencia de tecnología con las empresas </li></ul><ul><ul><li>REPSOL, AIRBUS, … </li></ul></ul>
    32. 32. <ul><li>Conclusiones </li></ul>
    33. 33. <ul><li>Supercomputadores (MPI) </li></ul><ul><ul><li>Procesador heterogeneo sin coherencia de cache </li></ul></ul><ul><ul><ul><li>CUDA, openCL, … </li></ul></ul></ul><ul><ul><li>Procesador Homogeneo con coherencia de cache </li></ul></ul><ul><ul><ul><li>openMP </li></ul></ul></ul><ul><li>Grid computing </li></ul><ul><ul><li>Útil en algunos casos sobre todo en clusters </li></ul></ul><ul><li>Principal coste </li></ul><ul><ul><li>Formación adecuada del personal </li></ul></ul>Evolución de los supercomputadores
    34. 34. <ul><li>BSC-CNS </li></ul><ul><ul><li>Centro al servicio de las empresas españolas que requieran supercomputación </li></ul></ul><ul><ul><li>Experiencia dilatada en proyectos de I+D con empresas </li></ul></ul><ul><li>No importa la dimensión financiera de la empresa, lo que importa es la tecnología que requiere </li></ul>BSC-CNS
    35. 35. ¿Por qué la supercomputación? Could not exist as a business Unable to compete, product testing and quality issues Unable to compete, time to market and cost issues Could still exist and compete Source : Fortune Magazine IDC pregunto a 33 compañías de los sectores aeroespacial, automoción, petrolero, electrónica, farmacéutico, financiero, logística y entretenimiento en USA, donde estaría su empresa sin acceso a HPC? 3% 47% 34% 16% „ The country that out-computes will be the one that out-competes“ Council on Competitiveness http://compete.org
    1. A particular slide catching your eye?

      Clipping is a handy way to collect important slides you want to go back to later.

    ×