Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows Azure
Dominik Wojciecho...
Z obserwacji rynku wynika, że wraz ze wzrostem liczby informacji,
można podjąć dwie decyzje dotyczące strategii utrzymania...
Spróbujmy przyjrzeć się rozwiązaniom backupu w chmurze, które
stanowią odpowiedź na niektóre wyzwania, jakie stawia przed ...
Bardzo często, analizując koszty backupu, pomijamy wiele elemen-
tów. Bierzemy pod uwagę koszty inwestycji w przestrzeń dy...
W chmurze płacimy tylko za rzeczywiście wykorzystywane zasoby.
Zaletą chmury jest to, że nie musimy deklarować zapotrzebow...
6.
Znane narzędzia Microsoft np. Windows Backup oraz znane inter-
fejsy programów tej firmy zostały rozszerzone o funkcje ...
7.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Wal...
8.
Kluczowym elementem planu odzyskiwania po katastrofie w przed-
siębiorstwie (disaster recovery) jest przechowywanie kop...
9.
Sprawdźmy zatem, jak krok po kroku wygląda proces podłączania
się do backupu w chmurze. W pierwszym etapie, na lokalnym...
10.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Wa...
11.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Wa...
Konsola System Center Data Protection Manager jest zunifikowana.
Wygląd aplikacji jest taki sam, jak pozostałych produktów...
Data Protection Manager może działać w obrębie wielu domen,
zarówno tych które łączy relacja zaufania, jak i domen nie pow...
Wróćmy do naszego scenariusza. Kolejny etap polega na zdefinio-
waniu retencji backupu. Wprowadzamy harmonogram tworzenia
...
Trzeci element całego systemu stanowią mechanizmy odzyskiwania
danych (recovery). W konsoli Data Protection Manager wskazu...
Hybrydowy magazyn danych
– dodatkowe zabezpieczenie
dla danych przechowywanych
lokalnie
StorSimple jest niezbędnym element...
StorSimple to samodzielna macierz SAN klasy korporacyjnej wypo-
sażona w dyski SAS lub SSD. Urządzenie umieszczane jest w ...
Spróbujmy przybliżyć słuchaczom, w jaki sposób StorSimple auto-
matyzuje proces backupu i odzyskiwania danych. W StorSimpl...
19.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Wa...
20.
Microsoft Public Cloud
eSeminarium. Spotkanie drugie:
Backup i Disaster
Recovery w chmurze
Windows AzureProwadzący: Wa...
W tym momencie należy zadać sobie pytanie, czy efektywne zarzą-
dzanie danymi ma znacznie? Odpowiedź jest prosta – tak. Da...
W StorSimple mamy kilka metod wykonywania kopii zapasowych.
Urządzenie wykonuje migawki (snapshots) lokalnie bądź do chmur...
Microsoft udostępnia StorSimple za darmo, pod warunkiem pod-
pisania umowy na subskrypcje usług w chmurze Windows Azure
(E...
Upcoming SlideShare
Loading in …5
×

Backup i Disaster Recovery w chmurze Windows Azure - transkrypt webinarium IDG

1,459 views
1,223 views

Published on

Published in: Technology
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,459
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
5
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Backup i Disaster Recovery w chmurze Windows Azure - transkrypt webinarium IDG

  1. 1. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows Azure Dominik Wojciechowski, eOpen; Adrian Przygoda, eOpen. Waldemar Skrzypiec, w firmie Microsoft jest odpowiedzialny za wsparcie techniczne Windows Azure. Tematem drugiego eSeminarium firmy Microsoft z cyklu „Chmura publiczna w scenariuszach biznesowych” jest Backup i Disaster Recovery w chmurze Windows Azure. Rozpoczniemy od przedstawienia wyzwań związanych z backupem danych w chmurze. Następnie opowiemy jak działa Windows Azure Storage. Pojęcie kopii zapasowych nie jest związane wyłącznie z systemami informatycznymi. Każdy z nas ma jakieś dane. Każdy stara się w pewien sposób te dane zabezpieczać. Backup danych jest więc zagadnieniem, które dotyczy każdego kto korzysta z komputerów i systemów IT. Prelegenci Cykl eSeminariów Agenda spotkania Wyzwania backupu 1. Prowadzący: Waldemar Skrzypiec, Microsoft Dominik Wojciechowski oraz Adrian Przygoda z firmy eOpen zajmują się wdrożaniami systemów informatycznych, w tym rozwiązań backupu w chmurze oraz świadczeniem wsparcia technicznego dla klientów zewnętrznych. Wśród najważniejszych wyzwań związanych z tradycyjnym backupem warto wymienić przyrost danych oraz związany z tym wzrost złożoności systemów informatycznych i rozwiązań backupu. Z badań firmy analitycznej Forrester Research wynika, że liczba danych, które powinny zostać uwzględnione w kopii zapasowej wzrasta nawet o 50-60% w skali roku. Administratorzy IT muszą obsługiwać coraz większą liczbę urządzeń i powiązanych ze sobą systemów. W kolejnej części niniejszego tekstu omówimy usługi backupu w chmurze. Sprawdzimy również, czy jest to bezpieczne rozwiązanie i w jaki sposób współpracuje ono z oprogramowaniem System Center Configuration Manager (SCCM). Na koniec zaprezentujemy urządzenie StorSimple, które umożliwia integrację lokalnego magazynu pamięci masowej, przechowującego kopie zapasowe i archiwa danych, z usługami chmury publicznej.
  2. 2. Z obserwacji rynku wynika, że wraz ze wzrostem liczby informacji, można podjąć dwie decyzje dotyczące strategii utrzymania i rozwoju systemów do tworzenia kopii zapasowych i archiwizacji danych w przedsiębiorstwie. Dwie strategie rozwoju systemów backupu 2. Wariant pierwszy zakłada zakup nowego lub dodatkowego sprzętu i oprogramowania do backu- pu, które umożliwia przechowywanie coraz większej liczby danych. Wzrost złożoności systemów backupu oraz liczby danych, które należy zabezpieczać i archiwizować, wiąże się z koniecznością zatrudnienia dodatkowego personelu IT. To bezpośrednio przekłada się na lawinowo rosnące koszty utrzymania rozwiązań ochrony danych w firmie. Drugie podejście zakłada ograniczenie ilości danych, które poddajemy procesowi backupu. Za każdym razem wymaga ono podjęcia decyzji, które dane są mniej, a które bardziej ważne. Tutaj nasuwa się zasadnicze pytanie skąd będziemy wiedzieć, które dane, z perspektywy przedsię- biorstwa i prowadzonego biznesu, są nieistotne i z całą pewnością nie będą potrzebne w przyszłości? Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Badania Forrester Research pokazują, że przyrost ilości danych w firmach sięga 50%-60% w stosunku rok do roku. Wzrost liczby danych do backupu przekłada się na wyższe koszty oraz dłuższy czas tworzenia kopii zapasowych i archiwizacji danych. To z kolei może spowodować, że nie wszystkie dane zostaną objęte właściwą ochroną.
  3. 3. Spróbujmy przyjrzeć się rozwiązaniom backupu w chmurze, które stanowią odpowiedź na niektóre wyzwania, jakie stawia przed nami tradycyjny backup. Jak już zostało wspomniane, wzrost liczby danych w przedsiębiorstwie wynosi od 50 do 60% rok do roku. Okazuje się jednak, że liczba danych, na których pracujemy każdego dnia, już tak szybko nie przyrasta. Nie ma nic odkrywczego w tym, że ludzie pra- cują na plikach, których w danej chwili potrzebują. Pliki te są później odkładane, a do większości z nich nigdy więcej nie wracamy. Z danych Forrester Research wynika, że backup danych w chmurze jest czterokrotnie tańszy niż backup lokalny (on premise) na ma- cierzy SAN. Warto zwrócić uwagę, że backup w chmurze daje nam również większą elastyczność stosowania. Backup w chmurze Backup lokalny vs. chmura 3. Czas życia informacji, które są nam niezbędne w danej chwili, wynosi zaledwie kilka, kilkana- ście dni. Widać to wyraźnie na przykładzie poczty elektronicznej. E-mail jest dla nas ważny przez pierwszy tydzień. Później wiadomość ta staje się w pewnym sensie archiwalna, choć istnieje duże prawdopodobieństwo, że będziemy chcieli do niej wrócić w przyszłości. Jednak im dłuższy czas od otrzymania e-maila, tym coraz rzadziej odwołujemy się do zawartych w nim informacji. Podobna sytuacja ma miejsce z plikami. Materiały zgromadzone w trakcie trwania projektu są rzadko wykorzystywane po jego zakończeniu. Wracamy do nich, jeśli chcemy pobrać szablon dokumentu, wyciągnąć listę klientów itd. Z całą pewnością pliki te można jednak uznać za archiwalne, bowiem nie używamy ich w codziennej pracy. Zawarte w nich informacje są wykorzystywane sporadycznie. W przypadku backupu lokalnego konieczne jest takie zaplanowanie infrastruktury backupu, które uwzględni przyrost danych w przyszłości. Korzystając z przestrzeni w chmurze, płacimy wyłącznie za miejsce na dyskach, które zajmujemy w danej chwili. Koszty rozwoju rozwiązań backupu pono- szone są wraz ze wzrostem liczby danych, a nie na etapie wdrażania systemów zabezpieczeń w organizacji. Spróbujmy jeszcze raz nakreślić korzyści, jakie niosą ze sobą usługi backupu w chmurze, a następ- nie podeprzyjmy te tezy konkretnymi pomysłami i rozwiązaniami. Najważniejsze korzyści z backupu w chmurze to zmniejszenie kosztów ochrony danych nawet o 60%, efektywne wykorzystanie zasobów, możliwość włączenia chmury do planu disaster recovery oraz rozszerzenie znanych usług kopii zapasowych o chmurę. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  4. 4. Bardzo często, analizując koszty backupu, pomijamy wiele elemen- tów. Bierzemy pod uwagę koszty inwestycji w przestrzeń dyskową, zapominając o kosztach zakupu przełączników, okablowania oraz utrzymania systemu w przyszłości. Do tej ostatniej grupy kosztów zaliczyć można m.in. wynagrodzenia pracowników działu IT. Kolejna rzecz – szyfrowanie i bezpieczeństwo danych. Wiele osób wykazuje zainteresowanie backupem w chmurze. Za każdym razem pojawia się jednak pytanie – jakie mamy gwarancje, że ktoś inny nam tych danych nie odczyta? Jest to ważna kwestia, która bezpo- średnio dotyka bezpieczeństwa informacji. Backup zapisywany w chmurze jest automatycznie backupem wyniesionym na zewnątrz. W tym kontekście chmura zapewnia nam kolejny element ochrony danych, który zakłada koniecz- ność przechowywania kopii zapasowych poza serwerownią przedsiębiorstwa. Backup w chmurze może być wykorzystany w trakcie przywracania danych po katastrofie (disaster recovery). Koszty tradycyjnego backupu Bezpieczne, bo zaszyfrowane Plan disaster recovery 4. Pamiętajmy, że w procesie zarządzania kopiami zapasowymi wymagane jest regularne prowadze- nie prób odzyskiwania danych. Musimy mieć pewność, że to co zapisujemy na nośnikach w kopii, będziemy mogli odzyskać w przyszłości. To wymaga pracy ludzi, która kosztuje. Przechowywanie danych backupu w miejscu, w którym te dane powstają i w którym je używamy, z założenia jest słabym zabezpieczeniem. Każde zdarzenie losowe np. pożar, przepięcie energe- tyczne, może prowadzić do utraty zarówno informacji, które poddajemy backupowi, jak i naszych kopii zapasowych. W tym kontekście przechowywanie backupu w zewnętrznej lokalizacji (off-site) stanowi element planu disaster recovery w przedsiębiorstwie. W dzisiejszych czasach najczęściej stosowanym rozwiązaniem backupu jest tworzenie kopii zapaso- wych danych jednocześnie na macierzy dyskowej oraz na taśmach magnetycznych. Backup na dysk wykorzystywany jest do szybkiego odzyskiwania danych, podczas gdy kopie zapisywane na taśmach są przechowywane w zewnętrznej lokalizacji np. w skrytce bankowej. Podejście to generuje dodat- kowe koszty związane z wynajęciem skrytki, koniecznością przenoszenia taśm do banku itd. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  5. 5. W chmurze płacimy tylko za rzeczywiście wykorzystywane zasoby. Zaletą chmury jest to, że nie musimy deklarować zapotrzebowania na miejsce na backup w przyszłości, a co za tym idzie, płacić za przestrzeń, której w danej chwili nie potrzebujemy. Efektywne wykorzystanie zasobów 5. Tworząc infrastrukturę backupu na poziomie sprzętowym, bez wykorzystania chmury, można wpaść w pułapkę związaną z niewłaściwym zaplanowaniem przestrzeni dyskowej. Planowanie systemu backupu wymaga przyjęcia szeregu założeń. Przykładowo, w ciągu najbliż- szych 2-3 lat będziemy przechowywać 10-12 TB danych. Wzrost ilości danych w kopii wyniesie ok. 50-60% rocznie. Na początek kupujemy więc połowę dysków, bo tyle potrzebujemy w danej chwili. Przyjmujemy jednak, że kolejne nośniki pamięci będziemy dodawać wraz ze wzrostem rozmiaru tworzonych kopii zapasowych. Bezpieczeсstwo w Windows Azure Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Pracownicy firmy Microsoft, do której należy Windows Azure, nie mają dostępu do danych swoich klientów. Klient w swojej lokalnej infrastrukturze przechowuje klucz prywatny, którym szyfrowane są dane backupu składowane w chmurze. Dane te poddawane są szyfrowaniu przed ich przesła- niem do chmury. Dodatkowo, transmisja danych do chmury odbywa się przez szyfrowany protokół SSL. Zwróćmy uwagę, że Microsoft, ani żadna osoba postronna, nie ma dostępu do klucza prywatnego użytkowni- ka. Tak więc nikt, kto nie posiada klucza szyfrującego, nie ma dostępu do informacji zawartych w kopii zapasowej przechowywanej w chmurze.
  6. 6. 6. Znane narzędzia Microsoft np. Windows Backup oraz znane inter- fejsy programów tej firmy zostały rozszerzone o funkcje tworzenia kopii zapasowych do chmury. Wdrożenie mechanizmów backupu w chmurze nie wymaga więc instalowania nowego, nieznanego administratorom IT oprogramowania. Rozszerzenie znanych usług kopii zapasowych o chmurę Osoby, które już korzystają z Windows Backup lub innych narzędzi do tworzenia kopii zapasowych danych klasy korporacyjnej, nie potrzebują uczyć się nowych rzeczy. Dla nich chmura stanowi dodatkową przestrzeń dyskową (storage), na której w sposób bezpieczny mogą oni przechowywać dane. Z perspektywy administratora ważne jest, że kopie te składowane są w zdalnej lokalizacji (off-site) i dodatkowo zabezpieczone kilkoma replikami w centrum danych Microsoft. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Problem w tym, że przyjęte założenia odnośnie wzrostu ilości danych niekoniecznie muszą okazać się prawdą. W przypadku gwałtownego rozwoju firmy albo przejęcia innego podmiotu (i tym samym konieczności obsługi jego infrastruktury informatycznej) może okazać się, że zaplanowany system kopii zapasowych nie spełnia wymagań postawionych na początku. W tym przypadku, dalszy rozwój rozwiązań backupu w przedsiębiorstwie wymagać będzie poniesienia istotnych nakładów inwesty- cyjnych związanych z zakupem nowych macierzy, dysków czy serwerów. Chmura pozwala w elastyczny sposób reagować na zmieniające się otoczenie. Mamy tutaj tyle miej- sca na backup, ile w danej chwili potrzebujemy. W przypadku lawinowego wzrostu ilości danych w kopii zapasowej, nie ponosimy żadnych wydatków związanych np. z zakupem nowych dysków. Pokuśmy się o zastanowienie, co stoi za rozwiązaniami usług prze- chowywania danych (storage) w chmurze. Sprawdźmy, czym jest Windows Azure Storage i ile osób już zaufało chmurze Microsoftu? Windows Azure Storage Na chwilę obecną w Windows Azure Storage składowanych jest ponad 10 bilionów obiektów. Przez obiekt rozumiemy tutaj pojedynczy plik, blok danych, wiadomość, tabelę. Aby uzmysłowić sobie tę ilość danych dodajmy, że każdy człowiek na świecie miałby w tej chwili 1400 obiektów przechowy- wanych w Windows Azure. W 2013 roku Nasuni, dostawca rozwiązań pamięci masowych dla chmury, określiła Windows Azure Storage jako usługę wiodącą na rynku. Tym samym firmie Microsoft udało się wyprzedzić Amazona z jego usługą S3. Windows Azure Storage działa jak każdy inny twardy dysk. W szczególności, jeśli połączymy to roz- wiązanie z urządzeniem StorSimple, które szerzej omówimy w dalszej części niniejszego tekstu.
  7. 7. 7. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Zaletą tego dysku jest fakt, że wszystkie dane zapisane w chmurze trzymane są w wielu kopiach. Stanowi to odzwierciedlenie założeń każdego backupu. Dane backupu muszą być przechowywane w kilku kopiach, aby awaria któregoś z nośników nie prowadziła do ich utraty. Planując backup powinniśmy więc starać się zaplanować co najmniej dwie oddzielne ścieżki zapisu kopii zapasowych. Podstawowym rozwiązaniem tworzenia kopii zapasowych i przywra- cania danych dla serwerów Windows jest Windows Azure Backup. Narzędzie to jest chętnie wykorzystywane przez małe i średnie firmy. Wynika to z jednej, prostej przyczyny. Sześć kopii w dwóch lokalizacjach Windows Azure Backup Korzystając z backupu w chmurze mamy to zagwarantowane przez dostawcę. W przypadku Win- dows Azure od razu są to trzy repliki danych poddawanych backupowi. Opcjonalny mechanizm geo- replikacji wymusza skopiowanie każdej z tych trzech replik do innego centrum danych Microsoft. W rezultacie mamy aż sześć kopii danych przechowywanych w chmurze. Centra danych Microsoftu rozsiane są po całym świecie, jednak wybranych polskich klientów obowiązuje prawo, które zabrania im przekazywania danych poza obszar Europejskiego Obszaru Gospodarczego (EOG). Z perspektywy tych klientów ważne jest, że dane w chmurze Windows Azure Storage replikowane są w obrębie tego regionu. W Europie Microsoft ma dwa centra danych – jedno znajduje się w Amsterdamie, drugie w Dublinie. Klient może mieć więc pewność, że jego dane przechowywane będą tylko w tych centrach, które zlokalizowane są na terenie EOG. W trakcie webinarium przedstawimy trzy różne scenariusze backupu w chmurze z wykorzystaniem narzędzi Windows Azure Backup, System Center Data Protection Manager oraz sprzętowego roz- wiązania StorSimple, które umożliwia stworzenie hybrydowego magazynu danych. Aplikacja ta jest wbudowana w system operacyjny Windows Server i nie wymaga ponoszenia do- datkowych nakładów finansowych na zakup oprogramowania do backupu. Jednocześnie Windows Azure Backup jest bardzo funkcjonalnym narzędziem, które umożliwia tworzenie kopii całego dys- ku, stanu systemu, wolumenów lub wskazanych folderów. Oprogramowanie to może być również elementem planu odzyskiwania danych (disaster recovery) w przedsiębiorstwie. Windows Azure Backup pozwala na bezpośredni zapis danych do chmury. Wymagana jest jedynie instalacja niewielkiego agenta, który odpowiada za przesyłanie danych do zewnętrznej lokalizacji. Agent usługi zapewnia również wysoką wydajność backupu. Do chmury transmitowane są tylko zmienione oraz nowe bloki danych. Kopie zapasowe są szyfrowane po stronie serwera, zanim jesz- cze zostaną przesłane do Windows Azure Storage.
  8. 8. 8. Kluczowym elementem planu odzyskiwania po katastrofie w przed- siębiorstwie (disaster recovery) jest przechowywanie kopii zapaso- wych danych w zewnętrznej lokalizacji (off-site). Wyobraźmy sobie użytkownika, który w swojej serwerowni ma dwa, trzy serwery, które obsługują wszystkie systemy IT w firmie. Wiele przedsię- biorstw w Polsce działa właśnie w ten sposób, uruchamiając lokal- nie na niewielkiej liczbie maszyn kontroler domeny, zwirtualizowany serwer plików i aplikacje biznesowe. Disaster recovery Wdrożenie systemu backupu klasy korporacyjnej wymaga poniesienia znacznych nakładów na zakup serwera backupu, macierzy dyskowych do przechowywania kopii zapasowych, biblioteki taśmowej itd. Jeśli zaczniemy liczyć te koszty, to sprawdza się reguła zgodnie z którą wiemy, że backup jest jedną z najważniejszych rzeczy w prawidłowym funkcjonowaniu systemów operacyjnych i dlatego rzadko kiedy działa prawidłowo. O tym, jak ważny jest regularny backup przekonujemy się z reguły dopiero wtedy, gdy potrzebujemy odzyskać dane z kopii. Dane kopii zapasowych są szyfrowane po stronie serwera oraz w trakcie przesyłania ich do chmury. Dane te pozostają cały czas zaszyfrowane w przestrzeni dyskowej chmury. Klucz szyfrujący należy do właściciela danych i jest przechowywany lokalnie. Ważne jest, aby wykonać kopię zapasową tego klucza. W przypadku jego utraty np. na wskutek katastrofy w lokalnej serwerowni, dostęp do kopii zapasowej w chmurze, a co za tym idzie odzyskanie zapisanych w niej danych, będzie po prostu niemożliwe. Narzędzie Windows Azure Backup przeznaczone jest dla małych firm i pododdziałów, które nie mają dedykowanych systemów tworzenia kopii zapasowych oraz nie chcą ponosić wysokich nakładów inwestycyjnych w obszarze zabezpieczeń danych. Podsumowanie części I Dla kogo Windows Azure Backup? Windows Azure Backup jest prostym, wydajnym i niezawodnym narzędziem, zintegrowanym z sys- temem operacyjnym Windows Server. To idealne rozwiązanie dla mniejszych firm, które nie muszą kupować sprzętu i oprogramowania do backupu, a jednocześnie oferuje im możliwość backupu danych na zewnątrz (off-site). Usługa ta z powodzeniem stosowana jest również w przedsiębiorstwach, w których wdrożono narzędzia z rodziny Microsoft System Center. Windows Azure Backup rozszerza funkcje System Center o mechanizmy backupu do chmury. Z perspektywy łatwości zarządzania, trudno bowiem wyobrazić sobie żeby firma, która posiada 50-100 serwerów, na każdym z nich używała narzędzia Windows Azure Backup. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  9. 9. 9. Sprawdźmy zatem, jak krok po kroku wygląda proces podłączania się do backupu w chmurze. W pierwszym etapie, na lokalnym ser- werze, instalujemy agenta Windows Azure Backup. Kolejny krok wymaga założenia konta na Windows Azure oraz skon- figurowania usługi backupu po stronie chmury. W tym celu rejestru- jemy serwer w usłudze, a następnie decydujemy, jakie dane będą poddawane procesowi backupu. Backup w chmurze w praktyce Następną rzeczą, którą robimy jest wykonanie kopii zapasowej w chmurze. Przypomnijmy po raz kolejny – kopie te są szyfrowane lokalnie, przesyłane bezpiecznym tunelem i składowane w formie zaszyfrowanej po stronie Windows Azure. Osoby, które mają do czynienia z narzędziem Windows Backup otrzymują po prostu dodatkowe miejsce (storage) na backup swoich danych w chmurze. Warto wiedzieć, że Windows Backup nie jest nowym oprogramowaniem, którego obsługi musimy się nauczyć. Podobnie sprawa wygląda w przypadku System Center. Zakłada- my subskrypcję w Windows Azure, a następnie instalujemy agenta usługi na serwerze System Center Data Protection Manager (DPM). Zwróćmy uwagę, że agent ten nie jest instalowany na każdym z serwerów, który poddawany jest backupowi. Dalsze kroki są takie same, jak w poprzednim scenariuszu. Rejestrujemy i konfigurujemy serwer System Center DPM w chmurze Microsoftu, tworzymy kopię bezpieczeństwa i w razie potrzeby odzyskujemy dane z backupu. System Center Data Protection Manager Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft System Center – Data Protection Manager
  10. 10. 10. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Data Protection Manager jest częścią rodziny narzędzi Microsoft System Center do zarządzania środowiskiem IT w przedsiębior- stwie. Moduł ten jest przeznaczony do tworzenia kopii zapasowych systemów klasy korporacyjnej (enterprise). Z uwagi na koszty zaku- pu i wdrożenia System Center DPM nie jest stosowany do ochrony danych w mniejszych firmach. Od wersji 2012 oprogramowanie SQL Server ma wbudowane funk- cje bezpośredniego backupu do chmury. W SQL Server 2014 dodano konfigurator, który pozwala uruchomić maszynę wirtualną w Win- dows Azure z repliką naszej bazy danych. W sytuacji awarii lokal- nego serwera maszyna ta będzie w stanie podnieść i przejąć prace transakcyjne bazy danych SQL Server. Mowa tu o drugim narzędziu z rodziny System Center, a mianowi- cie Virtual Machine Manager (VMM). W momencie awarii systemu lokalnego (on premise), Virtual Machine Manager podnosi maszynę wirtualną w Windows Azure, zapewniając ciągłość działania usług i systemów biznesowych. System Center DPM Backup SQL Server do chmury Virtual Machine Manager Data Protection Manager zapewnia kopie danych z serwerów Exchange, SQL Server oraz SharePo- int, plików Active Directory i innych systemów Microsoftu. Backup danych z wykorzystaniem rozwią- zań System Center może być prowadzony na wielu poziomach granulacji. W przypadku zwirtualizowanego środowiska Microsoft Exchange mamy możliwość wykonania backupu na poziomie maszyny wirtualnej (migawka pliku VHD). Druga metoda polega na instalacji agenta usługi System Center DPM nie na hoście wirtualizacji, ale bezpośrednio w systemie ope- racyjnym serwera Exchange. Wówczas mamy możliwość odzyskiwania na poziomie bazy danych Exchange, jak i pojedynczych skrzynek. To samo dotyczy pozostałych serwerów i aplikacji Microsoft. W odniesieniu do SharePoint’a mo- żemy wyciągać informacje z backupu nawet do poziomu dokumentu. W przypadku serwera plików Windows Server tutaj również mamy możliwość przywracania pojedynczych plików.
  11. 11. 11. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Do dyspozycji mamy również usługę Menadżer odzyskiwania. Usłu- ga ta działa po stronie Windows Azure, a jej zadaniem jest ciągłe monitorowanie stanu (zdrowia) systemów w lokalnym centrum danych i w chmurze. Między tymi centrami następuje replikacja danych z wykorzystaniem technologii Hyper-V Replica. System Center DPM umożliwia wykorzystanie pamięci masowej w Windows Azure do przechowywania kopii zapasowych lokalnych serwerów w chmurze. Kopia zapisana w chmurze staje się auto- matycznie kopią przechowywaną w zewnętrznej lokalizacji (off- site), zabezpieczoną przynajmniej trzema replikami, a w przypadku georeplikacji, nawet sześcioma. System Center DPM jest rozwiąza- niem klasy korporacyjnej, które zapewnia mechanizmy zarządzania kopiami zapasowymi dla całej organizacji. W odróżnieniu od Win- dows Azure Backup, którego agenci instalowani są na każdym z serwerów z osobna, System Center DPM zarządza backupami, a agent usługi wysyła dane dalej do chmury. Wspomnieliśmy wcześniej, jakie dane można backupować za pomocą narzędzi System Center. Aby uzupełnić tę wypowiedź dodajmy – gdzie? Menadżer odzyskiwania Podsumowanie części II Miejsca przechowywania W przypadku awarii serwera w jednym centrum danych, Menadżer odzyskiwania wyłapuje ten stan i uruchamia działające na nim maszyny wirtualne w chmurze Azure. Sytuacja ta ilustruje doskonały przykład wykorzystania chmury do zapewnienia bezpieczeństwa i ciągłości działania systemów IT przedsiębiorstwa. W przypadku budowania systemów wysokiej dostępności bardzo często pomijamy punkt monito- rowania. Zdarzyć się może, że usługa monitorowania znajdzie się w tym samym centrum danych, które w danej chwili przestanie działać. Efektem tego jest utrata wydajności i niezawodności prze- noszenia systemów między lokalizacjami. Aby uniknąć tej sytuacji warto przenieść punkt monitoro- wania do chmury. System Center pozwala na przechowywanie kopii zapasowych na dyskowej pamięci masowej (disk- disk). Model ten może zostać rozszerzony o replikację danych backupu na taśmy magnetyczne (di- sk-disk-tape) z wyniesieniem nośnika poza centrum danych. W kontekście tej publikacji zapis kopii na taśmach zostanie zastąpiony przeniesieniem ich do chmury Windows Azure.
  12. 12. Konsola System Center Data Protection Manager jest zunifikowana. Wygląd aplikacji jest taki sam, jak pozostałych produktów Microsoftu. Menu mamy po lewej stronie na dole. Środkową część okna zajmuje obszar danych, a główny pasek menu zorganizowano w formie wstążki. Menu dotyczące agentów umożliwia instalację klienta Data Protection Manager (DPM) na serwerach, które chcemy objąć ochroną. Klient ten obsługuje komunikację serwerów, na których wykonywana jest kopia zapasowa za serwerem DPM. Data Protection Manager w praktyce Instalacja agentów Menu konsoli System Center Data Protection Manager podzielono na pięć części: Monitoring, Pro- tection, Recovery, Reporting oraz Management. W sekcji Management wskazujemy serwery, które chcemy objąć procesem backupu oraz określamy miejsce składowania kopii zapasowych. Zakładka Monitoring pokazuje stan działania systemu zarządzania backupem (tutaj mamy informacje, co się powiodło, a co nie), natomiast zakładka Reporting dostarcza szczegółowe i sumaryczne informacje na temat wykorzystania zasobów dyskowych, wykonanych zadań backupu itd. Raporty te mogą zawierać dane zebrane w dłuższym okresie czasu m.in. dotyczące poziomu wykorzystania taśm czy też przyro- stu danych w zadanym okresie, dzięki czemu mamy podstawy do zaplanowania działań związanych z rozszerzaniem i rozbudową systemu backupu. Raporty te mogą być wysyłane na e-mail. Agent DPM jest tylko jeden. Nie ma potrzeby dołączania dodatkowych wtyczek np. do serwerów Exchange lub SQL Server. Agent usługi wykrywa, jakie podsystemy zainstalowano na serwerze i auto- matycznie zapewnia nam dostęp do danych, które wymagają ochrony. Instalacja agenta jest prosta i odbywa się zdalnie. Wszystko co powinniśmy zrobić to wskazać serwery, które chcemy objąć ochroną. 12. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft System Center DPM umożliwia zarządzanie nieograniczoną liczbą kopii zapasowych na serwerach. Pojedynczy serwer DPM jest w stanie obsłużyć do 120 węzłów. Istnieje możliwość skalowania całe- go systemu przez wdrożenie kolejnego serwera usługi DPM w organizacji. System Center DPM ma wbudowaną natywną obsługę Windows Azure w zakresie backupu danych do chmury oraz prowa- dzenia zadań związanych z odtwarzaniem danych po awarii. Wiele osób tworzy kopie zapasowe, ale zapomina o konieczności prowadzenia regularnych testów odtwarzania danych z backupu. Ma to szczególne znaczenie w przypadku zapisu kopii na taśmach magnetycznych. Rozwiązania backupu na taśmy istnieją na rynku od dłuższego czasu. Technologia zapisu na ta- śmach jest stale ulepszana, jednak mimo wszystko mamy tutaj do czynienia z taśmami, które łatwo zgiąć, przeciąć, urwać, rozmagnetyzować. Nośniki taśmowe są podatne na wysoką temperaturę i inne czynniki, które de facto powodują, że wykonując kopię na taśmę nie mamy pewności, że te dane zostały rzeczywiście na niej zapisane. Dopiero próba odtworzenia jakiejkolwiek skopiowanej informacji daje nam pewną informację, że kopia zapasowa rzeczywiście tam istnieje. Zawsze istnie- je jednak możliwość utraty danych zapisanych na taśmach w przyszłości. Z tego względu konieczne jest wykonywanie kopii danych backupu na dwóch lub większej liczbie taśm.
  13. 13. Data Protection Manager może działać w obrębie wielu domen, zarówno tych które łączy relacja zaufania, jak i domen nie powiąza- nych ze sobą. Aplikacja pozwala również na zabezpieczenie stacji pracujących w grupie roboczej. Definicja grupy zabezpieczeń (Protection Groups) zawiera informa- cje o tym, jakie dane zostaną uwzględnione w kopii zapasowej. Z listy serwerów, na których zainstalowano agenta DPM, wybiera- my zakres danych do backupu np. obraz dysku maszyny wirtualnej, wskazany wolumen czy folder na dysku. Istnieje możliwość two- rzenia wykluczeń plików, które nie zostaną skopiowane do kopii zapasowej. DPM integruje się z konsolą PowerShell, która pozwala tworzyć złożone konfiguracje zadań backupu. Schemat backupu można rozszerzyć integrując Data Protection Manager z urządzeniem StorSimple. Urządzenie to ma wbudowane algorytmy, które oceniają dane pod kątem wieku oraz częstości ich używania. Na tej podstawie StorSimple decyduje, które pliki i obiekty powinny być przechowywane lokalnie, a które tylko w chmurze Windows Azure. Sam w sobie, Data Protection Manager nie ma wbudowanej logiki, która pozwalałaby mu decydować, które pliki są częściej, a które rzadziej używane. Miejsca przechowywania Definicje grup zabezpieczeń Integracje DPM Zadaniem administratora jest zapewnienie miejsca na kopie zapasowe wszystkich chronionych serwerów i stacji roboczych. Miejscem tym mogą być dyski, podpięte fizycznie do DPM jako pamięć masowa serwera backupu, biblioteki taśmowe oraz Windows Azure Backup. W tym miejscu warto zauważyć zmianę sposobu, w jaki wyświetlana jest informacja o dostępnej przestrzeni dyskowej. Jeśli spojrzymy na dyski, DPM pokazuje nam, ile wolnego miejsca mamy do dyspozycji. W przypadku backupu w Windows Azure, w tym miejscu pojawia się informacja o ilości wykorzystanego miejsca. Wynika to z faktu, ze chmura Azure dostarcza nam tyle przestrzeni na backup, ile potrzebujemy. Idźmy dalej. Mamy przygotowanych agentów. Mamy wybrane miejsce, w którym zapiszemy backup danych. Teraz należy wybrać, co chcemy uwzględnić w kopii zapasowej oraz w jakim trybie będzie ona przeprowadzana. Służy do tego zakładka Protection. Administrator ma pełną w swobodę w zakresie wyboru miejsca, na którym zapisywane będą kopie zapasowe danych. Do wyboru mamy tutaj dyski (lokalne i w pamięci masowej), taśmy magnetyczne i chmurę Azure z opcja przechowywania backupu w wielu magazynach jednocześnie. Wyobraźmy sobie sytuację, w której pracownik przypadkowo skasował ważny plik. Backup na lokal- nych dyskach umożliwia szybkie przywrócenie tego obiektu. Kopia w chmurze Azure przechowywa- na jest tutaj na wypadek awarii lokalnego środowiska. 13. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  14. 14. Wróćmy do naszego scenariusza. Kolejny etap polega na zdefinio- waniu retencji backupu. Wprowadzamy harmonogram tworzenia kopii zapasowych, ustalamy za jaki okres wstecz chcemy mieć moż- liwość przywracania danych oraz wskazujemy czas synchronizacji danych w kopii. Dzięki temu mechanizmowi Data Protection Manager jest jednym z nielicznych narzędzi, które pozwala tworzyć pełną migawkę bazy SQL Server w krótkich przedziałach czasu np. co 15 minut. W kolejnym kroku etapie decydujemy, czy Data Protection Ma- nager ma przeprowadzić weryfikację spójności utworzonej kopii zapasowej oraz definiujemy ustawienia dotyczące Windows Azure. W definicji grupy zabezpieczeń określimy warunki zapisu danych do chmury. Istnieje możliwość zapisu na dyskach backupu całego systemu, z opcją przekazywania do zewnętrznej lokalizacji jedynie wybranych elementów z danej kopii zapasowej. Ustawienia backupu Migawki SQL Server Warunki zapisu do chmury W procesie backupu Data Protection Manager tworzy jedną pełną kopię zapasową, a następnie, w regularnych odstępach czasu (np. co 15 minut) szereg kopii przyrostowych. Na podstawie wy- konanych wcześniej kopii przyrostowych Data Protection Manager generuje nowy pełny backup danych. Operacja ta wykonywana jest w ustalonym przedziale czasowym, określonym właśnie opcją czas synchronizacji danych. Wyobraźmy sobie awarię systemu produkcyjnego, który przechowuje dane w bazie SQL. Może to być np. system ERP. Załóżmy, że backup bazy wykonywany jest raz dziennie, a w ciągu dnia 5 tysięcy osób wprowadzało w niej dane. W przypadku awarii konieczne będzie ponowne uzupełnienie tych danych, co przekłada się na znaczące koszty i stratę czasu. Data Protection Manager daje możliwość odzyska- nia tych danych do stanu nawet na kilkanaście minut przed awarią. Wyobraźmy sobie sytuację, w której procesowi backupu poddajemy dwa serwery plików, ale do chmury Azure przekazujemy kopię zapasową tylko jednego z nich. Wariant ten może mieć uzasad- nienie np. dla serwerów skonfigurowanych do pracy w rozproszonym systemie plików Distributed File System (DFS). Data Protection Manager jest częścią rodziny System Center, w skład której wchodzą również apli- kacje Orchestrator oraz Service Manager. Orchestrator, w połączeniu z oprogramowaniem Data Protection Manager, umożliwia tworzenie przepływów zadań (workflow), które automatyzują definiowanie zadań i zarządzanie procesami backupu. 14. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  15. 15. Trzeci element całego systemu stanowią mechanizmy odzyskiwania danych (recovery). W konsoli Data Protection Manager wskazujemy, które dane i z którego serwera chcemy odtworzyć. Wskazujemy punkt odzyskiwania (czyli czas wykonania kopii zapasowej) oraz lokalizację przywracania (lokalne dyski, chmura). Klikamy przycisk Recover. Na koniec decydujemy, czy obiekt z kopii ma zostać przywrócony do loka- lizacji źródłowej, czy innego, wskazanego folderu na dysku. W scenariuszu pokazaliśmy, że za pomocą Data Protection Manager możemy po pierwsze – tworzyć kopie zapasowe dowolnych danych do chmury, po drugie – w łatwy sposób zarządzać całym systemem backupu i po trzecie – szybko i wygodnie odzyskać potrzebne dane do wskazanego miejsca w czasie. Naszym celem było przedstawie- nie Data Protection Manager jako narzędzia zarządzania backupem, które umożliwia intuicyjne i nieskomplikowane tworzenie kopii zapasowych i przywracanie danych w dużej organizacji. Odtwarzanie danych Podsumowanie części III W tym momencie rozpoczyna się proces odzyskiwania. System podłączy się do Windows Azure, sprawdzi, czy kopia rzeczywiście istnieje oraz pobierze potrzebne dane do lokalizacji użytkownika. Pewne opóźnienie, które można zauważyć na tym etapie, jest niezależne od wielkości przywracane- go pliku. Procedura, którą system musi przejść, zajmuje określoną ilość czasu, bez względu na to, czy plik zajmuje 2 KB, 2 MB czy 2 GB. Czas ten zależy również od ilości danych, którą przechowuje- my w chmurze. Nie jest to jednak w żaden sposób uciążliwe. Data Protection Manager jest narzędziem godnym polecenia, w szczególności jeśli musimy zarzą- dzać backupem z większej liczby serwerów. Przypomnijmy, że Data Protection Manager jest częścią rozwiązań System Center, które warto wykorzystać do zarządzania środowiskiem IT w przedsiębior- stwie. Data Protection Manager nie jest produktem sprzedawanym oddzielnie. Decydując się na Data Protection Manager warto rozważyć możliwość wdrożenia całej rodziny Sys- tem Center, a przynajmniej sprawdzić, jaką wartość dodaną otrzymamy wykorzystując inne aplika- cje tego pakietu w naszej organizacji. System Center jest bowiem dużym pakietem narzędzi, które w istotny sposób ułatwiają zarządzanie systemami informatycznymi w przedsiębiorstwie. Ustalamy, ile razy dziennie (lub tygodniowo) i o której godzinie Data Protection Manager ma wyko- nać synchronizację danych do chmury. W trakcie pierwszej synchronizacji następuje wyniesienie pełnej kopii zapasowej do zewnętrznej lokalizacji. Później mamy do czynienia wyłącznie z synchro- nizacją przyrostową. Nigdy nie ma sytuacji, w której raz przekazane dane są ponownie przesyłane do Windows Azure. Mechanizm ten pozwala efektywnie korzystać z łączy internetowych oraz istot- nie skraca czas backupu danych do chmury. 15. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  16. 16. Hybrydowy magazyn danych – dodatkowe zabezpieczenie dla danych przechowywanych lokalnie StorSimple jest niezbędnym elementem do budowy hybrydowego magazynu danych. Nie jest to więc proste urządzenie do tworzenia backupu, jak mogłoby się początkowo wydawać. Ideą hybrydowego magazynu danych jest rozwiązanie problemów poprzez integrację lokalnego środowiska z chmurą publiczną. Lokalnie korzystamy z wbudowanej pamięci StorSimple, jednak mamy również możli- wość składowania tych danych bezpośrednio w chmurze. Hybrydowy magazyn danych Kluczowym założeniem do wdrożenia tej architektury jest przekonanie, że dane przechowywane lokalnie mogą zostać utracone np. na skutek awarii, katastrofy. W przypadku hybrydowego magazy- nu, kopia tych danych pozostaje zabezpieczona w chmurze. 16. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  17. 17. StorSimple to samodzielna macierz SAN klasy korporacyjnej wypo- sażona w dyski SAS lub SSD. Urządzenie umieszczane jest w cen- trum danych przedsiębiorstwa. Innymi słowy, StorSimple to pamięć masowa, w której montujemy potrzebną liczbę dysków różnego rodzaju, a następnie instalujemy w szafie w lokalnej serwerowni. StorSimple jest urządzeniem do tworzenia kopii zapasowych, które zostało wyposażone w funkcje deduplikacji oraz kompresji danych. Deduplikacja ma na celu wyeliminowanie powtarzających się blo- ków danych, z kolei mechanizmy kompresji pozwalają składować na urządzeniu większą liczbę plików i obiektów innego typu. Dzięki połączeniu głównego magazynu danych oraz archiwum kopii zapasowych w jednym urządzeniu, StorSimple staje się kluczowym elementem planu odzyskiwania danych w przypadku katastrofy (disaster recovery). Dzięki StorSimple nie musimy wykonywać kopii zapasowych na nośnikach zewnętrznych, przewozić tych nośników do odległej lokalizacji oraz tworzyć złożonych, trudnych do testowa- nia planów disaster recovery. W tym przypadku rezygnujemy z prowadzenia testów odzyskiwania, które wymagają transportu taśm z zewnętrznej lokalizacji, dzięki czemu oszczędzamy czas i pieniądze. StorSimple Cechy StorSimple StorSimple i disaster recovery StorSimple umożliwia integrację lokalnego środowiska z chmurą Windows Azure. Z tego względu StorSimple jest kluczowym elementem, który umożliwia stworzenie hybrydowego magazynu da- nych. W magazynie tym możemy umieszczać dane lokalnie i w chmurze, bez zastanawiania się w jaki sposób zarządzać tymi danymi na poziomie lokalizacji. Operacja ta jest w pełni zautomatyzowana przez StorSimple. Oprogramowanie StorSimple, podob- nie jak Windows Backup i Data Protection Manager, ma zaimplementowane funkcje współpracy z chmurą. Zasadnicza różnica polega na tym, że w przypadku StorSimple nie potrzebujemy instalo- wać dodatkowych agentów na chronionych punktach końcowych, ani używać dodatkowego sprzętu. StorSimple samodzielnie łączy się z chmurą. Wszystko, czego potrzebujemy, to aktywne połączenie z internetem i subskrypcja w Windows Azure. StorSimple włączamy do lokalnej infrasturktury IT przedsiębiorstwa za pomocą protokołu iSCSI. Urządzenie umożliwia backup z fizycznych serwerów i maszyn wirtualnych. StorSimple posiada certy- fikaty Hyper-V i VMWare, które gwarantują kompatybilność z tymi rozwiązaniami do wirtualizacji. Z perspektywy serwera, dyski hybrydowe w StorSimple widoczne są jako zwykły wolumen (LUN). 17. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  18. 18. Spróbujmy przybliżyć słuchaczom, w jaki sposób StorSimple auto- matyzuje proces backupu i odzyskiwania danych. W StorSimple za- stosowano technologię tworzenia migawek (snapshots) do chmury. Dzięki temu urządzeniu jesteśmy w stanie odzyskać kopie zapasowe niemal natychmiast, kiedy będziemy ich potrzebować. Elastyczne polityki automatyzacji wykonywania kopii pozwalają na stworzenie scenariusza, który spełni oczekiwania nawet najbardziej wymagają- cych administratorów. W StorSimple zastosowano szereg rozwiązań technologicznych, które do niezbędnego minimum ograniczają ilość danych przesyła- nych do chmury publicznej. Mowa tu o mechanizmach deduplikacji, thin provisioning oraz kompresji danych. Dzięki thin provisioning narzędzie do backupu „widzi” większą ilość dostępnych zasobów dyskowych, niż wynika to z faktycznej pojemności pamięci masowej. Przejdźmy do kwestii podłączenia StorSimple do chmury publicznej. Pierwszym krokiem jest założenie subskrypcji w Windows Azure. Następnie tworzymy magazyn danych w chmurze. Nadajemy mu nazwę oraz wskazujemy miejsce, w którym będą przechowywane nasze dane. Automatyzacja backupu Efektywne wykorzystanie łączy internetowych Geolokalizacja Windows Azure StorSimple wysyła dane do Windows Azure za pomocą bezpiecznego protokołu HTTPS. Dane, zanim zostaną przekazane do chmury, są szyfrowane na urządzeniu algorytmem AES-256. Jest to roz- wiązanie zbliżone do zastosowanego w Windows Backup i Data Protection Manager, choć warto zauważyć tutaj pewne różnice. W Data Protection Manager za szyfrowanie danych odpowiada agent usługi. W drugim przypadku szyfrowanie odbywa się po stronie StorSimple za pomocą klucza pry- watnego, który generujemy przy konfiguracji samego urządzenia. Dla testowych subskrypcji dostępna jest wyłącznie lokalizacja w Azji. W przypadku zakupu usług w Windows Azure mamy do wyboru dwie lokalizacje w Europie. W opcjach georeplikacji możemy zdecydować, czy dane przechowywane w chmurze będą repliko- wane w dwóch lokalizacjach. W Windows Azure mechanizmy georeplikacji są domyślnie włączone. A zatem, jak zostało już wcześniej powiedziane, od razu mamy sześć kopii naszych danych w dwóch Ciekawostka: Pojedyncza subskrypcja Windows Azure pozwala na zamawianie wielu usług w chmurze w ramach jednego, comiesięcznego zobowiązania np. 1000 euro. Kapitał ten może zostać wykorzystany na wynajem przestrzeni dyskowej (storage), maszyn wirtualnych, zakup usług powiadomień, obsługę stron WWW czy przetwarzanie dużej ilości danych (klaster HDInsight). 18. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  19. 19. 19. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft różnych lokalizacjach. Zwróćmy uwagę, że wynajem przestrzeni dyskowej jest nieco wyższy w przy- padku włączenia usługi georeplikacji. W tym miejscu warto wyjaśnić kwestie przechowywania kopii w pamięci masowej Windows Azure. Każda z trzech kopii danych, składowanych w pojedynczym centrum danych Microsoft, jest roz- mieszczona w innej szafie (rack), aby zminimalizować ryzyko utraty danych np. na skutek awarii nośnika pamięci. Wróćmy do naszego przykładu. Logujemy się do panelu zarządzania StorSimple. Na stronie podsumowania widzimy informację o prze- strzeni dyskowej dostępnej w urządzeniu oraz statystyki przepływu danych (odczyt i zapis). Przestrzeń ta obejmuje pamięć masową w StorSimple oraz w Windows Azure. Dodajmy, że ilość danych, które będziemy mogli składować w chmurze zależy od posiadanego mo- delu StorSimple. Idziemy dalej. W konfiguracji StorSimple definiujemy: nazwę ma- gazynu wyświetlaną na urządzeniu, typ usługi, do której chcemy się podłączyć (tutaj: Windows Azure) oraz opcje szyfrowania transmisji danych do chmury (SSL). StorSimple i magazyny danych Bezpieczeństwo danych Na rynku dostępne są cztery modele urządzeń StorSimple. Modele te różnią się ilością danych, które możemy przechowywać w pamięci lokalnej i w Windows Azure. StorSimple może obsługiwać do 64 różnego rodzaju magazynów danych. Dzięki temu możemy skonfigurować urządzenie do składowania danych w wielu centrach danych np. w Europie Północ- nej i Europie Zachodniej. Mechanizm ten można wykorzystać do zarządzania dostępem. Wyobraźmy sobie 10 różnych maga- zynów, z których każdy zarządzany jest oddzielnie. Podejście to pozwala wyróżnić magazyny danych dla różnych działów przedsiębiorstwa i obciążać je rzeczywiście ponoszonymi kosztami wynajmu pamięci masowej. Inne zastosowanie tego mechanizmu umożliwia wydzielenie oddzielnego maga- zynu danych na pliki, a innego na obrazy dysków maszyn wirtualnych. Mimo, że możemy zrezygnować z szyfrowania transmisji do chmury, dane na dysku nadal pozo- staną zaszyfrowane. Dodajmy, że bezpieczeństwo danych gwarantowane jest na wielu poziomach. Dane są podzielone (poszatkowane) na bloki, zdeduplikowane, skompresowane, szyfrowane na dyskach urządzenia i ponownie szyfrowane w trakcie przesyłania ich przez internet za pomocą protokołu SSL.
  20. 20. 20. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Wróćmy do samej konfiguracji urządzenia. Podajemy nazwę magazynu w chmurze, a następnie w oknie ustawień StorSimple wprowadzamy klucz zarządzania (ciąg znaków) wygenerowany w Windows Azure. Klucz ten służy autentykacji urządzenia w środowisku chmury. Do dyspozycji mamy dwa klucze na wypadek utraty pierwszego z nich. Klikając przycisk Verify możemy sprawdzić poprawność konfiguracji StorSimple do współpracy z Windows Azure. W tym momencie jesteśmy gotowi do korzystania z hybrydowego magazynu danych. W StorSimple zamontowano dwa kontrolery iSCSI. Każdy kontroler wyposażony jest w cztery porty sieciowe, które zapewniają nadmiarowość połączeń. Kontrolery te skonfigurowane są do pracy w trybie failover. W przypadku awarii głównego kontrolera, jego zadania przejmuje drugi – sprawny. Identyczne rozwiązania stosowane są w konkurencyjnych macierzach dyskowych klasy korporacyjnej. StorSimple może być zarządzany z poziomu panelu webowego (jak we wcześniejszym przykładzie) lub konsoli MMC w systemie Win- dows. Z poziomu konsoli możemy wdrażać polityki zabezpieczeń (kiedy i jak mają być nasze dane backupowane), tworzyć nowe grupy wolumenów oraz przywracać obiekty z kopii zapasowych. Użytkow- nik ma wybór, czy będzie korzystał ze znanej sobie przystawki MMC, czy też z portalu webowego. Mimo pewnych ograniczeń, konsola może zostać wykorzystana do codziennej administracji StorSimple i odzyskiwania danych. Cechą StorSimple jest jego odporność na pojedyncze punkty awarii. Wszystkie komponenty wykorzystane do jego budowy są zdublowa- ne. Mamy możliwość wymiany wybranych podzespołów w trakcie pracy urządzenia („na gorąco”). W ten sposób zastąpimy zepsuty zasilacz, czy kontroler sieciowy. W prezentowanym urządzeniu zamontowano trzy dyski SSD oraz sie- dem dysków SAS. Wszystkie dyski zostały skonfigurowane do pracy w macierzy RAID 10, która gwarantuje wysoką wydajność operacji odczytu-zapisu oraz niezawodność przechowywania danych. Zarządzanie StorSimple Komponenty StorSimple Dywersyfikacja dysków
  21. 21. W tym momencie należy zadać sobie pytanie, czy efektywne zarzą- dzanie danymi ma znacznie? Odpowiedź jest prosta – tak. Dane w momencie ich utworzenia są używane regularnie. Wraz z upły- wem czasu przestają być one potrzebne, nie są wykorzystywane na bieżąco, a więc powinny zostać zarchiwizowane. Problem ten rozwiązuje trójwarstwowa architektura składowania danych w macierzy dyskowej zaimplementowana w StorSimple. W tym celu wykorzystywane są zaawansowane algorytmy klasyfi- kacji, które na podstawie wieku pliku i częstotliwości jego użycia, decydują o tym, w jakiej warstwie przechowywania danych zosta- nie on zapisany. Przepływy danych Trzy warstwy składowania danych Macierze dyskowe są drogimi urządzeniami. Z perspektywy efektywnego zarządzania danymi, w praktyce przechowujemy niepotrzebne dane (archiwalne) na bardzo drogim sprzęcie. W wielu przypadkach realna potrzeba wykorzystania tych danych w żaden sposób nie racjonalizuje nam kosztu ich przechowywania na macierzy. Zawsze mamy możliwość wyniesienia tych danych do archiwum na nośniki zewnętrzne. W tym kontekście pojawia się problem, w jaki sposób stwierdzić, że wybrany zestaw danych przestały nas interesować i co zrobić w sytuacji, w której okaże się, że jednak są potrzebne? Z naszego doświad- czenia wynika, że ok. 80% danych jest utrzymywanych jako dane archiwalne. Przykładowo, rzadko używane pliki są klasyfikowane jako dane archiwalne i przenoszone do chmu- ry. Dane wykorzystywane na bieżąco tzw. dane „hot”, są przechowywane na dyskach SSD w lokalnej macierzy, aby zapewnić najszybszy dostęp do nich, przy najmniejszych opóźnieniach. Koncepcja ta podnosi ogólną wydajność całego systemu. Na poziomie nośników SSD StorSimple wykorzystuje mechanizmy deduplikacji, aby wyeliminować konieczność przechowywania tych samych, powtarza- jących się, bloków danych. Zastanówmy się, co dzieje się w sytuacji, których danych najczęściej używanych jest więcej niż dostępnej przestrzeni na dyskach SSD? Jeśli przekroczymy górną granicę przechowywania na tych dyskach, rzadziej używane pliki zostają przeniesione na wolniejsze, ale równie wydajne dyski SAS. Na tym poziomie dane te są dodatkowo kompresowane. Podsumujmy – w warstwie pierwszej (dyski SSD) dane są umieszczane na bieżąco, w momencie ich utworzenia przez użytkownika. StorSimple sprawdza, czy w macierzy nie są przechowywane już takie same pliki. Jeśli tak się dzieje, urządzenie wykorzystuje mechanizmy deduplikacji, aby zaosz- czędzić miejsce potrzebne do składowania powtarzających się bloków danych. Rzadziej używane pliki przesuwane są do drugiej warstwy (dyski SAS). Dane te są kompresowane. Jeśli okaże się, że pliki te nie są używane przez dłuższy czas, StorSimple przenosi je do warstwy trzeciej, czyli chmury. Siłą StorSimple jest więc wbudowana logika, która automatyzuje procesy związane z przechowywaniem danych na nośnikach różnego typu, w tym chmurze. 21. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft
  22. 22. W StorSimple mamy kilka metod wykonywania kopii zapasowych. Urządzenie wykonuje migawki (snapshots) lokalnie bądź do chmury. Wielu osobom słowo migawka kojarzy się z punktem w czasie. Musi- my mieć pełną kopię, aby przywrócić dane do tego punktu. W Stor- Simple migawka jest kompletną kopią zapasową. Nie potrzebujemy mieć pierwotnych danych, aby przywrócić je do stanu wyjściowego. Backup i odtwarzanie danych Na zaprezentowanym wykresie porównano trzy techniki wykonywania kopii zapasowych – klasyczny backup taśmowy oraz backup danych do Windows Azure z wykorzystaniem zwykłych narzędzi oraz przy użyciu StorSimple. StorSimple umożliwia w jak najkrótszym czasie odzyskać potrzebne dane. Wynika to z innowa- cyjności wbudowanych w urządzenie technologii. StorSimple nie pobiera pełnych danych z kopii, a jedynie indeks przechowywanych w niej obiektów (metadane). Indeks ten umożliwia wskazanie obiektów, które należy rzeczywiście odzyskać z backupu. Nie ma potrzeby pobierania z chmury całego woluminu. 22. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft Porуwnanie trzech technik wykonywania kopii zapasowych
  23. 23. Microsoft udostępnia StorSimple za darmo, pod warunkiem pod- pisania umowy na subskrypcje usług w chmurze Windows Azure (Enterprise Agreement) przynajmniej na 50 000 dolarów. Kwota ta nie musi zostać wykorzystana na magazyn danych. W ramach subskrypcji możemy korzystać z innych, bogatych usług Windows Azure. Dodajmy, że koszt zakupu StorSimple na wolnym rynku wy- nosi ok. 70 000 dolarów. Koszty zakupu 23. Microsoft Public Cloud eSeminarium. Spotkanie drugie: Backup i Disaster Recovery w chmurze Windows AzureProwadzący: Waldemar Skrzypiec, Microsoft W trakcie webinarium omówiliśmy trzy rozwiązania, które poma- gają w codziennym backupie naszego środowiska. Wydaje się, że każde z nich było bardzo wygodne i proste w obsłudze. Z jednej strony mamy znane interfejsy, z drugiej brak konieczności prze- noszenia danych do zewnętrznej lokalizacji (off-site). Wszystkie te rozwiązania cechuje wysoka niezawodność. Mamy trzy lub sześć replik danych w dwóch centrach danych Windows Azure. Do tego dochodzi SLA na poziomie 99,95% dostępności pamięci masowej w chmurze. Na koniec dodajmy, że Windows Azure i StorSimple ściśle integrują się z rozwiązaniami firmy Microsoft instalowanymi lokalnie, w serwerowni przedsiębiorstwa. Na początku prezentacji powiedzieliśmy, że pamięć masowa Windows Azure umożliwia ograni- czenie kosztów backupu nawet o 60%. 1 TB danych przechowywanych miesięcznie w chmurze Microsoft kosztuje ok. 20 euro. To niewiele porównując cenę wynajmu dysku z kosztami wdro- żenia własnej infrastruktury backupu (zakup macierzy, przełączników, okablowania) oraz jego utrzymania (zarządzanie, przenoszenie danych na taśmę itd.). Na koniec spróbujmy przyjrzeć się prostej symulacji kosztowej. Zakładamy, że firma ma 100 GB danych. W pierwszym wariancie zakładamy zakup biblioteki taśmowej oraz taśm. W drugim przykładzie firma przechowuje kopie zapasowe w Windows Azure. Z uwagi na fakt, że w obu wariantach istnieje możliwość wykorzystania tych samych aplikacji backupu np. Data Protection Manager w symulacji pominięto koszty zakupu oprogramowania. W przypadku Windows Azure płacimy jedynie za wykorzystane miejsce, a koszty narastają z cza- sem. Po trzech latach koszt utrzymania kopii zapasowych wynosi ok. 1200 euro. Dla porównania, koszt inwestycji we własne rozwiązanie backupu wynosi od 5000 euro za samą macierz dyskową. Z zaprezentowanych w webinarium przykładów wynika więc jasno, że rozwiązania oparte o chmurę są proste, wygodne, elastyczne, bezpieczne i efektywne kosztowo. Podsumowanie

×