Cesvip 20110127

659 views

Published on

Hypervisor e VM, clustering e HA, SAN e storage, architetture degli elaboratori - Terza lezione corso CESVIP "Tecnico di rete informatico specializzato in sicurezza delle reti"

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
659
On SlideShare
0
From Embeds
0
Number of Embeds
7
Actions
Shares
0
Downloads
7
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Cesvip 20110127

  1. 1. TECNICO DI RETI INFORMATICHE SPECIALIZZATO IN SICUREZZA DELLE RETI RIF. P.A. 2010 - 948/RER
  2. 2. Abbiamo visto che la nostra struttura fisica deve possedere, nella sua visione ottimale, i seguenti requisiti: <ul><li>Relazioni on-demand fra i componenti
  3. 3. Agilità strutturale
  4. 4. Azzeramento degli sprechi delle risorse
  5. 5. Conformità agli SLA definiti
  6. 6. Allineamento ai BP </li></ul>I fattori da considerare, nella valutazione di un componente fisico della rete (in particolare, un server) dovranno quindi necessariamente essere: <ul><li>Scalabilità (orizzontale e verticale)
  7. 7. Ottimizzazione del consumo delle risorse
  8. 8. Affidabilità
  9. 9. Integrità </li></ul>
  10. 10. Obiezione 1) E il problema dell'interoperabilità dei sistemi? L'aumento del livello di astrazione ha portato alla definizione di protocolli e standard di livello più alto possibile, rendendo di fatto la struttura hardware-indipendent. Il mercato è dominato da middleware cross-platform, gli standard sono aperti, le alternative infinite. Anche con riferimento ai sistemi legacy Obiezione 2) E la potenza di elaborazione? Il concetto di raw power è stato sorpassato da scalabilità e ottimizzazione delle risorse (anche dal punto di vista energetico). La capacità di elaborazione deve essere on-demand come la struttura. Lo sviluppo tecnologico segue gli stessi driver: le architetture cpu diventano multi-core e distribuite, frequenza e n. di core diventano dinamici. .
  11. 11. Conclusione Siamo in grado di scegliere il sistema che ha il minor numero di vincoli ambientali ammissibile (ovvero solo quelli posti dalla nostra unità di business) Il mio dominio di scelta deve ammettere il numero massimo di architetture sia come cardinalità (tecnologie) che di ordinalità (dimensioni) Il limite all'evoluzione del sistema è fissato dalla capacità di scalare verso l'alto, dato un workload; ma un limite è anche l'incapacità di preservare le risorse in condizioni non di picco, dato lo stesso workload E' fondamentale aumentare la parcellizzazione dei sistemi per ottenere la massima percentuale di utilizzo delle componenti fisiche <ul>E' FONDAMENTALE L'INTRODUZIONE DI UN LAYER CHE PERMETTA DI SCORPORARE IL SERVER FISICO DA QUELLO LOGICO . </ul>.
  12. 12. HYPERVISOR (aka VMM, Virtual Machine Manager)
  13. 13. Hypervisor <ul>Classificazione tradizionale (Robert P. Goldberg) <li>Tipo 1 (bare metal) L'hypervisor viene eseguito direttamente sull'hardware per regolarne l'accesso e monitorare i sistemi guest . I sistemi guest sono presenti al secondo livello.
  14. 14. Type 2 (or hosted) L'hypervisor viene eseguito all'interno di un sistema operativo convenzionale. L'hypervisor è quindi al secondo livello di astrazione, i guest al terzo . </li></ul>. gl
  15. 15. Hypervisor di tipo 1 <ul><li>“ Bare metal”, è ospitato direttamente dall'hardware
  16. 16. Necessita di modifiche ai S.O. Guest (syscall) o di un layer di binary translation
  17. 17. Unico mediatore per le risorse
  18. 18. Può necessitare di predisposizioni hardware (CPU)
  19. 19. Massimo livello di isolamento dell'hardware (non è possibile accedervi direttamente) </li></ul>
  20. 20. Hypervisor di tipo 2 <ul><li>Ospitato all'interno di un S.O.
  21. 21. E' mediatore dei livelli superiori, ma non è esclusivo
  22. 22. Non necessita di modifiche ai S.O. Guest ( syscall)
  23. 23. E' mantenuta la possibilità di accedere direttamente all'hw della macchina, tramite il S.O. host
  24. 24. Overhead maggiore rispetto al tipo 1, dovuto a un layer aggiuntivo </li></ul>
  25. 25. Hardware e S.O. guest , possono avere differente metodologie di comunicazione, in base alle caratteristiche dell'hypervisor e dell'hardware Ho quindi a disposizione diverse modalità per l'esecuzione del codice, che originano le diverse tecnologie di virtualizzazione: <ul><li>Virtualizzazione
  26. 26. Paravirtualizzazione
  27. 27. Partizionamento </li></ul>. l
  28. 28. Virtualizzazione completa Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina). Siamo in presenza di un binary translator o di istruzioni cpu specifiche per la virtualizzazione
  29. 29. Paravirtualizzazione Paravirtualizzazione Guest e hardware usano istruzioni funzionalmente simili ma non identiche, i sistemi guest usano hypercall
  30. 30. Partizionamento Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina).
  31. 31. Comparazione hypervisor Tipo Virt. Paravirt. Partiz. Arch. VMware vSphere hv (ESX) 1 * * x86 XEN 1 * * x86 / POWER / Z MS Hyper-V 1 * x86 IBM PowerVM / IVM / ZVM 1 * POWER / Z Oracle VM Server SPARC 1 * SPARC HPIntegrity VM 1 * Itanium Oracle VirtualBox 2 * x86 VMware Server 2 * x86 User Mode Linux 2 x86 KVM (RHEV) 2 * * x86 MS Virtual Server 2 * x86
  32. 32. Ora che abbiamo una panoramica delle tecnologie con cui è possibile implementare il concetto di server logico (sia fisico che virtuale) per ridurre lo spreco di risorse Passiamo a vedere le tecnologie con le quali è possibile legarli, per il raggiungimento dei requisiti di: <ul>Scalabilità Affidabilità </ul>. l
  33. 33. Cluster distribuiti (load balancing, failover active-active) Distribuzione dell'elaborazione su un gruppo di server (nodi) connessi tramite rete <ul><li>Necessita di componenti di mediazione a livello di rete (VIP e bilanciatori)
  34. 34. Necessita di componenti di replica/condivisione a livello di risorse
  35. 35. Permette un aumento di affidabilità in base all'ordinalità dell'insieme
  36. 36. Permette lo scaling (quasi) lineare della potenza elaborativa all'aumentare del numero dei nodi
  37. 37. Aumenta la complessità di gestione </li></ul>
  38. 38. Cluster distribuiti (load balancing, failover active-active)
  39. 39. Cluster HA (failover active-passive) Distribuzione di funzioni diverse su piu nodi. Tramite monitoraggio, i nodi sono in grado di rilevare i failover dei reciproci e assumerne le funzioni <ul><li>Necessita di componenti di replica a livello rete
  40. 40. Necessita di componenti di condivisione delle risorse
  41. 41. Lo scopo è la riduzione dei downtime
  42. 42. Introduzione di un livello verticale di affidabilità </li></ul>
  43. 43. Cluster HA (failover active-passive)
  44. 44. Tecniche di fault-tolerance per le componenti hw L'unico metodo disponibile per l'aumento dell'affidabilità delle macchine è (oltre all'evoluzione dei processi produttivi) la RIDONDANZA DEI COMPONENTI Ciò implica un aumento di complessità della macchina, e soprattutto l'aumento dei COSTI Per questo motivi, il grado di affidabilità di un elaboratore è (quasi) direttamente proporzionale alla ridondanza dei suoi componenti, e quindi al costo. . l
  45. 45. . Sistemi Intel/AMD x86-64 <ul><li>Intel Xeon o AMD Opteron fino a 2,6 Ghz
  46. 46. Max 12 core/socket
  47. 47. Max 8 socket
  48. 48. Max 1 TB RAM
  49. 49. S.O Windows/Linux/Solaris </li></ul>Sistemi POWER <ul><li>IBM POWER6 o POWER7 fino a 6.1 Ghz
  50. 50. Max 8 core/socket
  51. 51. Max 128 socket
  52. 52. Max 4 TB RAM </li></ul>Sistemi SPARC <ul><li>Sun Sparc64 VII o Txxx fino a 3 Ghz
  53. 53. Max 16 core/socket
  54. 54. Max 64 socket
  55. 55. Max 1 TB RAM </li></ul>Una breve panoramica sulle architetture hw...
  56. 56. Posizionamento teniche fault-tolerance l Entry level <ul><li>Power supply
  57. 57. Network </li></ul>Midrange <ul><li>Power supply
  58. 58. Network (spare)
  59. 59. Memory (spare)
  60. 60. CPU (spare) </li></ul>Enterprise <ul><li>Power supply
  61. 61. Cooling
  62. 62. Network
  63. 63. - LEHA
  64. 64. - Spare
  65. 65. Memory </li></ul>- Oscillatori - Spare chip - Memory RAID - Spare <ul><li>Bus interconnect
  66. 66. CPU </li><ul><li>- Registri
  67. 67. - Lock-stepping
  68. 68. - Memory controller
  69. 69. - Chipset
  70. 70. - Spare </li></ul></ul>
  71. 71. Storage e dischi Differenziazione in base al posizionamento: Locale (tightly-coupled) vs Distribuito (loosely-coupled) . l
  72. 72. Lo storage locale: il raid . l
  73. 73. Lo storage locale: le tecnologie dei dischi . l
  74. 74. Lo storage distribuito: i filesystem di rete e le reti di storage Lo storage distribuito è necessario per superare le limitazioni di flessibilità imposte dall'interazione fisica fra dischi/server, con particolare riferimento a: <ul><li>Condivisione di volumi
  75. 75. Rilocazione dei volumi
  76. 76. Replica dei volumi
  77. 77. Deduplica dei dati
  78. 78. Semplificazione della gestione </li></ul>. l
  79. 79. Lo storage distribuito: SAN Storage Area Network è una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete Il 99% delle tecnologie SAN utilizza i seguenti protocolli: Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI. ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI . l Lo storage distribuito: SAN Storage Area Network è una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete Il 99% delle tecnologie SAN utilizza i seguenti protocolli: Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI. ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI . l
  80. 80. Lo storage distribuito: SAN FCP <ul><li>Rete dedicata su protocollo FC
  81. 81. Rame o Fibra
  82. 82. Maggiori prestazioni
  83. 83. Topologia switched-fabric </li></ul>. l
  84. 84. Lo storage distribuito: SAN iSCSI <ul><li>Rete LAN esistente (TCP/IP)
  85. 85. Rame
  86. 86. Minori prestazioni e costi
  87. 87. Topologia di rete esistente </li></ul>. l
  88. 88. Comparazione fra i modelli
  89. 89. Lo storage distribuito: NAS Network Attached storage consente la condivisione delle aree di storage con gli host, tramite protocolli e filesystem di rete. Non c'è incapsulamento: il fs è esposto direttamente al S.O sulla rete ethernet. E' un semplice device di rete. I filesystem più utilizzati sono: NFS , SMB e CIFS per utilizzi general-purpose GPFS, AFS e FUSE per applicazioni ad alto throughput . l
  90. 90. Modello concettuale utilizzo fs condivisi

×