2. 2
CHI SONO
Antonio Amoroso
System Administrator Ministero della Giustizia
VCP 3.5, VCP 5.5,NPP
https://it.linkedin.com/pub/antonio-amoroso/36/166/b98
@AAmoroso77
www.virtualzen.it
3. 3
Sommario della sessione
- Analisi dello storage tradizionale
- Principi del Software Defined Storage
- Storage Policy Based Management
- La vision di Vmware
- VSAN
- VVOLs
4. 4
SDS Pietra d’angolo del SDDC
La pietra scartata dai costruttori è
diventata testata d’angolo
6. 6
Storage Tradizionale – Vantaggi e Svantaggi
Vantaggi
• Dynamic tiering
• Caching
• Replication
• Snapshot
• Deduplication
• Compression
Svantaggi
• Hardware-centric, vendor
specific management
• Slow provisioning, rigid storage
constructs (LUNs, Volumes)
• Data services aligned to
storage container, not directly
with VM needs
7. 7
Definizione SDDC
Compute Networking Storage
Management
Software Defined Data Center • Tutti i servizi Infrastrutturali
sono virtualizzati :
compute,network,storage
• Le risorse hardware sono
astratte
• Controllo del Datacenter è
gestito dal software
• Virtual Machines sono al
centro dell’idea di SDDC
8. 8
Software Defined Storage - Definizione
Software-defined storage (SDS) è un approccio al data storage nel quale
il software che controlla le attività legate allo storage(CONTROL PLANE)
è disaccoppiato dall’hardware fisico dello storage (DATA PLANE)
Sostanzialmente,il software defined storage è uno storage di classe
enterprise che usa hardware standard fornendo servizi enterprise,
policy-driven, application-aware attraverso la gestione delle
infrastrutture di storage sottostante
una piattaforma storage che permetta la composizione
dinamica di servizi astratta dall’hardware sottostante
10. 10
Storage Policy Based Management (SPBM)
Gli storage che usano le vStorage
APIs for Storage Awareness (VASA),
sono rappresentati da degli storage
providers.
Gli storage providers informano il
vCenter Server degli specifici devices
e presentano le loro caratteristiche e
i datastore creati sotto forma storage
capabilities.
Uno storage può pubblicare più
capabilities. Le capabilities sono
raggruppate in uno o più capability
profile.
Quando una VM viene creata si fa
riferimento a queste capabilities e la
VM viene messa sui datastore che le
offrono le caratteristiche richieste
11. 11
Virtual Machine Storage
policy
Reserve
Capacity
40GB
Availability 2 Failures to
tolerate
Read Cache 50%
Stripe Width 6
Storage Policy-Based Management
vSphere
Virtual SAN Virtual Volumes
Virtual Datastore
Storage Policy-based Management (SPBM)
Overview
• Posizionamento intelligente
delle VM
• Controllo dei servizi molto
granulare fino al livello della
VM
• Bisogno di nuovi servizi per
le VM?
• Cambiamento delle policy
correnti on-the-fly
• Possibilità di attaccare nuove
policy on-the-fly
13. 13
VSAN – Architettura
•Minimo 3 hosts, tutti con storage locale da
destinare alla VSAN
•E’ raccomandato che gli host abbiano
configurazioni simili
•Host: Scalabile fino a 64 host
•Dischi: dischi locali
•Hybrid: dischi magnetici e flash
•All-Flash: solo dispositivi flash
•Rete:
•1GB Ethernet O
•10GB Ethernet(preferito)
•Il componente “Witness” (fatto solo da
metada ta) agisce da tie-breaker durante le
decisioni di availability
14. 14
Virtual SAN Oggetti e componenti
Ogni host contribuisce con I propri
dischi, SSD e HDD
VSAN aggrega queste risorse in un
unico global datastore
Ogni VM e ogni virtual disk sono
rappresentati da VSAN object
VSAN object sono gestiti sulla base di
VM Storage Policy
1
4
15. 15
Number of Failures /Failure Tolerance Method
Decidi il numero di guasti di host, dischi o network il sistema può
sopportare
Quando il Failure Tolerance Method è settato su Performance
(default) viene utilizzato RAID-1 Mirroring
Per sopportare “n” guasti, “n+1” copie degli oggetti sono create e
abbiamo bisogno di “2n+1” host
1
5
16. 16
Fault Domains
• Possiamo creare fault domains per incrementare l’availability
• 8 node cluster con 4 fault domains definiti (2 nodi in ognuno)
FD1 = esxi-01, esxi-02 FD3 = esxi-05, esxi-06
FD2 = esxi-03, esxi-04 FD4 = esxi-7, esxi-08
• Per proteggerci contro il fault di 1 rack sono richieste solo 2 repliche e un witness su
3 failure domains
1
6
1
6
17. 17
VSAN 5.5
March 2014
VSAN 6.0
March 2015
All Flash Configuration
64 node VSAN cluster
x2 Hybrid Performance
VSAN Snapshots/Clones
Health UI
Rack Awareness
VSAN 6.2
March 2016
Deduplication and Compression
RAID 5/6 support
Software Checksum
QoS via IOPS Limits
IPv6
Performance Service
Enhanced Capacity Views VSAN
6.1
September
2015
Stretched Cluster
Replication - 5 Minutes
RPO
2-node ROBO
Health Monitoring &
Remediation
1
7
Virtual SAN – Evoluzione
18. 18
Virtual SAN – Stretched Cluster
• Virtual SAN cluster diviso tra 2
siti!
• Ogni sito è un Fault Domain (FD)
• Protezione a livello di site con
zero perdita di dati ed un
recupero quasi istantaneo
• Supporta fino a 5ms RTT di
latenza tra I due siti
– 10Gbps di banda richiesti
• Witness VM può risiedere
dovunque
– 200ms RTT di latenza
– 100Mbps almeno di banda
• Failover Automatico
Today
1
8
19. 19
Deduplica e Compressione
Nearline deduplication and compression per disk group level.
• Abilitata a cluster level
• La deduplica avviene quando c’è il de-staging da cache tier a capacity tier
• Lunghezza fissa dei blocchi di deduplica (4KB Blocks)
Compressione dopo la Deduplica
• Se il blocco è compresso<= 2KB
• Negli altri casi sono immagazzinati
blocchi da 4KB
Beta
esxi-01 esxi-02 esxi-03
vmdk vmdk
vSphere & Virtual SAN
vmdk
Si ottiene un significativo
risparmio di spazio, che
rende economica la scelta di
una scelta ALL-FLASH
1
9
20. 20
RAID-5/6 (Inline Erasure Coding)
Quando Number of Failures to Tolerate = 1 e Failure Tolerance Method =
Capacity RAID-5
• 3+1 (4 host minimo)
• 1.33x overhead for RAID-5 instead of 2x compared to FTT=1 with RAID-1
Quando Number of Failures to Tolerate = 2 and Failure Tolerance Method
= Capacity RAID-6
• 4+2 (6 host minimo)
• 1.5x overhead for for RAID-6 instead of 3x compared to FTT=2 with RAID-1
RAID-5
ESXi Host
parity
data
data
data
ESXi Host
data
parity
data
data
ESXi Host
data
data
parity
data
ESXi Host
data
data
data
parity
All Flash Only
2
0
22. 22
VVOLs – Cosa sono
Virtualizzano SAN e NAS in pool logici detti Virtual Datastore
La maggior parte delle funzioni storage possono essere gestite in offload
dallo storage.
Supportano i protocolli esistenti (FC, iSCSI, NFS)
Supportati dai vari vendors storage
I VVOLs sono un nuovo tipo di oggetti di macchine virtuali che vengono
creati e conservati nativamente nell’array
Questi oggetti sono conservati negli storage containers vengono mappati
con i file delle virtual machine
23. 23
VVOL – Architettura
• Nessun File System
• ESXi gestisce l’array tramite le
API VASA
•Gli array sono partizionati
logicamente in contenitori
chiamati Storage Containers (SC)
• L’ I/O tra ESXi e array è fatto
tramite punti di accesso detti
Protocol Endpoint (PE)
• I data services sono offloaded
sull’array
•Gestione tramite storage policy-
-based management (SPBM)
24. 24
VVOL –VASA Provider (VP)
Plugin sviluppato dallo
storage vendor
Utilizzale API VASA
ESXi and vCenterServer connect to
VASA provider
Esporta le capability dell’array e le
presenta a vSphere
Un singolo VASA provider può
gestire piu’ array
Può essere implementato nel
management server dell’array o nel
firmware dell’array
Responsabile della creazione dei
Virtual Volume
25. 25
VVOL –Protocol Endpoint
Punto di accesso dall’host allo
storage
Creato dallo storage administrator
Compatibile con tutti i protocolli
SAN e NAS (iSCSI, NFS, FC, FCoE)
Sostituisce il concetto di LUN e
mount point
26. 26
VVOL –Storage Container
Costrutti logici per raggruppare virtual volume
Setup fatto dallo storage administrator
La capacità è basata sulla capacità fisica
dell’array
Partizione logica delle VM con diverse esigenze
storage
Minimo uno storage container per array
Massimo dipende dall’array
Un singolo SC puo’ essere acceduto
contemporaneamente da piu’ Protocol
Endpoints
“Equivalenti” ai datastore
27. 27
HANDS ON LAB
UTILIZZATE GLI HOL!!! http://labs.hol.vmware.com/
HOL-SDC-1608 - Virtual SAN 6 from A to Z
HOL-SDC-1627 - VVol, Virtual SAN & Storage Policy-Based
Management