50 największych banków w Polsce 2015: Lepiej, taniej i bezpieczniej – dzięki wirtualizacji

BANK 2015/06

Rozmowa ze Zbigniewem Parysem (Solutions Architect w Cloudware Polska, od 19 lat związanym z branżą IT,specjalizującym się w rozwiązaniach storage’owych takich firm jak IBM, NetApp, Hitachi Data Systems, HP czy LSI, mającym także bogate doświadczenie w dziedzinie monitoringu i wirtualizacji) oraz z Piotrem Biskupskim (CEE Flash System Technical w IBM, w Dziale STG, odpowiadającym za systemy Flash w ramach regionu CEE, od 17 lat związanym z Uniwersytetem im. Adama Mickiewicza w Poznaniu; którego główne zainteresowania naukowe i hobbystyczne to nanotechnologia i fizyka ciała stałego).

Rozmowa ze Zbigniewem Parysem (Solutions Architect w Cloudware Polska, od 19 lat związanym z branżą IT,specjalizującym się w rozwiązaniach storage’owych takich firm jak IBM, NetApp, Hitachi Data Systems, HP czy LSI, mającym także bogate doświadczenie w dziedzinie monitoringu i wirtualizacji) oraz z Piotrem Biskupskim (CEE Flash System Technical w IBM, w Dziale STG, odpowiadającym za systemy Flash w ramach regionu CEE, od 17 lat związanym z Uniwersytetem im. Adama Mickiewicza w Poznaniu; którego główne zainteresowania naukowe i hobbystyczne to nanotechnologia i fizyka ciała stałego).

W ostatnim czasie widać wyraźne ożywienie w segmencie wirtualizacji pamięci masowych. Jakie są tego przyczyny?

- Rzeczywiście obserwujemy coraz większe zainteresowanie wirtualizacją pamięci masowych. Dzięki niej jesteśmy w stanie odseparować się od części fizycznej zasobów dyskowych. Niesie to za sobą szereg korzyści - zarówno finansowych, jak i technologicznych: możemy efektywniej wykorzystać posiadaną przestrzeń dyskową oraz znacznie uprościć zarządzanie środowiskiem storage. Wszelkie zmiany po stronie przestrzeni dyskowej nie wymuszają przerwy w pracy aplikacji. Przy wykorzystaniu wirtualizacji znacznemu uproszczeniu ulegają wszelkie procesy optymalizacji oraz migracji danych.

Zastosowanie wirtualizacji, a w szczególności rozwiązań rodziny IBM pozwala na ograniczenie kosztów w obszarze zarządzania systemami pamięci masowej. Poprzez standaryzację w warstwie pamięci masowych można uprościć procesy zakupowe i sprawić, by warunki finansowe przyszłej rozbudowy przestrzeni dyskowej były dla przedsiębiorstwa bardzo korzystne. Dzięki zastosowaniu wirtualizacji, funkcjonalności występujące w urządzeniu wirtualizacyjnym są dostępne dla wszystkich macierzy w środowisku zwirtualizowanym bez potrzeby zakupu dodatkowych licencji.

Wirtualizacja zwiększa wykorzystanie posiadanego miejsca na zarządzanych macierzach, a w rezultacie minimalizuje koszty dodatkowej przestrzeni. Dzięki niej zmniejsza się liczba odrębnych środowisk pamięci masowych, a co za tym idzie upraszcza się zarządzanie. Stanowi ona jeden interfejs do zarządzania pamięcią masową. Po inicjalnej konfiguracji, codzienna praca administratorów sprowadza się do zarządzania macierzami poprzez urządzenie wirtualizacyjne, bez konieczności modyfikacji ustawień na poszczególnych macierzach. Wszystko to zmniejsza koszty administracyjne.

Standaryzacja w warstwie pamięci masowych, realizowana poprzez wirtualizację, oprócz finansowych niesie też korzyści technologiczne. Pozwala na usystematyzowane podejście do świadczenia usług, a to dzięki ścisłemu określeniu dostępnych funkcjonalności, tierów dyskowych, globalnemu zarządzaniu QoS, jednolitym politykom diseaster recovery, łatwości migracji świadczonych usług pomiędzy różnymi zasobami fizycznymi.

IBM od ponad 10 lat stawia na wirtualizację, już w 2003 r. wprowadził na rynek SAN Volume Controller (SVC).

Obecnie SVC to członek rodziny IBM Storwize, w skład której wchodzi również macierz V7000. Rozwiązania rodziny IBM Storwize umożliwiają wirtualizację zewnętrznej pamięci masowej z pojedynczym punktem zarządzania. Dzięki wirtualizacji zwiększa się dostępność aplikacji biznesowych, a lepsze wykorzystanie zasobów pamięci masowej w przedsiębiorstwie pozwala osiągnąć prostszą, bardziej skalowalną i kosztowo zoptymalizowaną infrastrukturę IT. Innowacyjne technologie, takie jak kompresja danych w czasie rzeczywistym Real-time Compression, optymalizacja składowanych danych, czyli automatyczne przenoszenie danych pomiędzy różnymi rodzajami dysków Easy Tier, oraz wbudowane narzędzia, które odpowiadają za optymalizację sieci w trakcie wykonywania zdalnej replikacji danych Bridgeworks SANSlide umożliwiają zarówno lepszą wydajność, jak i większą efektywność środowisk składowania danych.

Czym jest Software Defined Storage?

- Software Defined Storage to jeden z elementów promowanego przez IBM nowatorskiego podejścia do infrastruktury IT, nazwanego Software Defined Environment.

Obecnie jesteśmy świadkami bardzo dynamicznego przyrostu danych. Wielkie ich zbiory stają się jeszcze większe i nawet infrastruktura chmury nie zawsze jest w stanie sobie z nimi poradzić. Pora zatem przyjrzeć się środowiskom definiowanym programowo (SDE - Software Defined Environment), czyli zaskakująco prostej koncepcji, która wyznacza przyszłość przetwarzania danych. Środowisko SDE otwiera drogę do efektywnego przetwarzania w chmurze oraz harmonijnego świadczenia usług IT w sposób dynamiczny, zautomatyzowany i elastyczny. Kojarzy obciążenia z najlepszymi dla nich zasobami. IBM przedstawia dziś środowisko SDE, stworzone z myślą o większej efektywności działania systemów, pamięci masowych i sieci. Środowisko to jest architekturą obsługi wielkich zbiorów danych, zaprojektowaną dla przyszłości, ale gotową już dziś i dostępną w IBM. Pomaga w przewidywaniu preferencji klientów, prześcignięciu konkurentów i reagowaniu na zdarzenia zachodzące dynamicznie w otoczeniu rynkowym.

Czy pojęcia Software Defined Storage i wirtualizacja pamięci masowych są tożsame? Jeśli nie, czym się różnią te terminy?

- Software Defined Storage (SDS) jest pojęciem szerszym niż sama wirtualizacja. SDS to inteligentne pamięci masowe IBM, które wpisują się w strategię inteligentnego przetwarzania danych, pomagają przygotować się na zwiększające się ilości informacji i na pracę w chmurze. Pamięci masowe z rodziny IBM FlashSystem umożliwiają szybsze uzyskiwanie wyników analiz i przynoszą oszczędność pieniędzy, energii i miejsca w porównaniu z hybrydowymi rozwiązaniami obejmującymi pamięci flash i dyski. Systemy z rodziny IBM Storwize są podstawą wirtualizacji całej infrastruktury pamięci masowych - i stają się przez to fundamentem efektywnych i elastycznych środowisk przetwarzania w chmurze.

Które z rozwiązań do wirtualizacji pamięci masowych rekomendujecie swoich klientom?

- Można założyć, że cele biznesowe wszystkich przedsiębiorstw są na wielu płaszczyznach wspólne: istotne jest jak najszybsze wdrażanie aplikacji generujących przychody, utrzymanie ciągłości ich działania, zapewnienie jak najwyższego poziomu usług na rzecz klientów, zdolność do elastycznego reagowania na zmiany zachodzące na rynku oraz minimalizacja ryzyka utraty danych. Odpowiedzią IBM na te potrzeby są rozwiązania rodziny Storwize, które oferują niezrównaną wydajność, dostępność, zaawansowane funkcje oraz skalowalność pojemności niespotykaną dotąd w systemach dyskowych klasy średniej.

Systemy hybrydowe czy czysty flash? Jakie są największe walory hybrydowych macierzy dyskowych? W jakim kierunku podąży ich rozwój? Czy kluczową rolę odgrywać będzie auto tiering czy alternatywne technologie, promowane przez start-up?

- We współczesnych, dynamicznych środowiskach informatycznych rozwiązania zapewniające automatyczne rozmieszczenie danych pomiędzy różnymi rodzajami nośników wydają się być już standardową praktyką. Pozwalają one znacznie przyśpieszyć i uelastycznić działanie podsystemów dyskowych, a w efekcie przyczyniają się do ekonomicznego sukcesu przedsiębiorstwa. Dzisiejszy użytkownik systemów IT oczekuje dostępu do danych i aplikacji na swoich własnych warunkach. Chce mieć możliwość swobodnej pracy bez potrzeby ręcznego optymalizowania systemów dyskowych. Obecnie standardem technologicznym stały się macierze hybrydowe. Macierze takie umożliwiają wykorzystanie dysków rotacyjnych i dysków SSD w ramach jednego rozwiązania. Jest to swego rodzaju kompromis pomiędzy standardowymi macierzami wykorzystującymi tylko i wyłącznie dyski HDD a szybkimi macierzami typu All-Flash. Taka konfiguracja systemu dyskowego, która umożliwia automatyczną optymalizację składowanych danych pozwala na znaczne zmniejszenie czasu jego odpowiedzi, co może przyczynić się do przyśpieszenia działających aplikacji. Omawiana funkcjonalność automatycznego wyboru miejsca składowanych danych (Easy Tier) do tej pory znana była tylko w systemach klasy Enterprise, takich jak IBM System Storage DS8000, przez co jej dostępność ograniczała się tylko do dużych środowisk korporacyjnych. Obecnie technologia ta jest dostępna również w rozwiązaniach przeznaczonych do małych i średnich przedsiębiorstw. Zastosowanie funkcjonalności Easy Tier w systemach pamięci masowej z rodziny IBM Storwize ma znaczny wpływ na wydajność wykorzystywanych aplikacji. Szczególnie korzystne jest wykorzystanie tego mechanizmu w środowiskach o dużych wymaganiach wydajnościowych, takich jak np. systemy bazodanowe (DB2, Oracle, SAP i inne).

Na rynku IT dotychczas panowało przekonanie, iż korzystanie z dysków SSD jest za drogie. Należy zwrócić jednak uwagę na to, że relatywnie mała liczba dysków SSD (około 5 proc.) w połączeniu z doskonałym algorytmem realokacji pozwala diametralnie zmienić tą sytuację. Dzięki wykorzystaniu mechanizmu IBM Easy Tier udaje się uzyskać doskonałą synergię poprzez połączenie wydajności dysków SSD i pojemności dysków tradycyjnych.

W jakich przypadkach rekomendujecie klientom rozwiązania hybrydowe, a kiedy All-Flash-Aray. Jakie kryteria decydują o wyborze poszczególnych rozwiązań?

- Okazuje się, że coraz częściej rozwiązania hybrydowe nie są wystarczające. Przedsiębiorstwa chcące zdobyć i utrzymać przewagę nad konkurencją nie mogą sobie pozwolić na przestoje, powinny być gotowe do sprawnego funkcjonowania w trybie 24x7 i muszą zapewnić sobie zdolność do częstego, pogłębionego analizowania olbrzymich ilości informacji — w tym różnego rodzaju wielkich zbiorów danych (big data). W takim przypadku IBM oferuje macierze typu All-Flash-Aray.

Pamięci masowe flash IBM charakteryzują się znakomitą przepustowością we/wy i niewielkimi opóźnieniami rzędu mikrosekund, przez co doskonale nadają się do stosowania w najnowocześniejszych infrastrukturach IT. W porównaniu z równoważnymi systemami dyskowymi oferują 6,7-razy większą pojemność w jednym stelażu przemysłowym, 19-krotnie niższy koszt pojedynczej operacji wejścia/wyjścia (I/O), a przy tym są 115 razy bardziej efektywne energetycznie.

System IBM FlashSystem został zaprojektowany z myślą o przyspieszeniu działania różnego typu aplikacji korporacyjnych - w tym baz danych OLTP i OLAP, infrastruktur wirtualnych stacji roboczych, aplikacji do obliczeń technicznych oraz infrastruktur przetwarzania w chmurze. Oferuje on znakomitą wydajność i przepustowość, skracając czas oczekiwania na wyniki analiz prowadzonych przy użyciu tradycyjnych narzędzi analitycznych oraz technologii wielkich zbiorów danych (big data). Ponadto FlashSystem eliminuje wąskie gardła pamięci masowej dzięki technologii minimalizacji opóźnień IBM MicroLatency, która pozwala na uzyskanie czasów dostępu nieprzekraczających 100 mikrosekund i pośrednio przyczynia się do przyspieszenia procesów decyzyjnych. Niskie opóźnienia oznaczają, że nośnik pamięci masowej może działać z szybkością porównywalną do szybkości procesorów, pamięci DRAM, sieci i magistrali we/wy. Dzięki zastosowaniu IBM Flash System aplikacje mogą obsługiwać te same obciążenia przy użyciu mniejszej liczby procesorów, co w efekcie wpływa na niższe koszty licencji na oprogramowanie.

Jedno jest pewne, zastosowanie macierzy typu Flash zmienia diametralnie naszą infrastrukturę. Na wzroście wydajności zyskują wszyscy. Szybszy dostęp do danych przekłada się na realne korzyści biznesowe, dzięki czemu możemy mieć poczucie stosowania spójnej infrastruktury.

 

Udostpnij artyku: