it integro 2017 poradnik erp

Na początku tego roku kilka tysięcy klientów bezpowrotnie straciło swoje dane. W dobie rosnącego znaczenia chmury obliczeniowej, Big Data oraz cyberprzestępczości, warto zadać sobie pytanie: gdzie są moje dane i jakiego stopnia ich ochrony rzeczywiście potrzebuję? Czy wystarczy mi samo OC, czy jednak powinienem wykupić AC?

REKLAMA:
 
 
W marcu br. rynek zmroziły informacje o problemach klientów 2be.pl, jednego z dostawców hostingu obsługującego ponad 2 tysiące domen. Zaczęło się od drobnej wydawałoby się awarii, niewłaściwa polityka bezpieczeństwa i oszczędności sprawiły jednak, że klienci stracili dostęp nie tylko do własnej strony internetowej, poczty e-mail, ale także baz danych. Problemy nie omijają również największych. 4 lata temu awaria systemów zasilania w jednym z większych polskich centrów danych doprowadziła do największej awarii chmury obliczeniowej w Polsce. Problemy z dostępem do danych dotknęły m.in. takie witryny, jak Wykop.pl, Natemat.pl, PayU czy Money.pl. Jak tłumaczyła wtedy firma w oficjalnym komunikacie:
W dniu 4 czerwca w godzinach porannych, podczas rutynowych testów sprawności systemów zasilających, wystąpiła kilkuminutowa przerwa w zasilaniu jednej z sekcji zasilających serwerowni Beyond.pl. Datacenter Beyond.pl jako obiekt spełniający wymogi dostępności klasy Tier-4 jest poddawany regularnym przeglądom i próbom instalacji – niektóre z nich testowane są nawet co godzinę, przez 24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku. Niestety awaria dotknęła cześć klientów naszej firmy, co spowodowało problemy w dostępie do ich serwisów.
Praktycy nie mają wątpliwości: awarie były, są i będą, bo zawodzi nie tylko technologia, ale także człowiek. Pytanie: jak zminimalizować ich ryzyko i jakie kryteria powinny być kluczowe przy wyborze serwerowni?

Miejsca po przecinku

Na rynku data center jednym z najistotniejszych kryteriów jest TIER. To popularna klasyfikacja ośrodków gromadzenia i przetwarzania danych, która definiuje standard „opieki” nad zasobami IT. Dla klientów jest ona często wyznacznikiem jakości przechowywania oraz przetwarzania informacji. Czy słusznie? Choć wciąż pojawia się wiele niejasności co do jej interpretowania – zwłaszcza w przypadku dwóch jej najwyższych poziomów – TIER III i TIER IV – a na przestrzeni minionych lat pojawiło się wiele kontrowersji i wątpliwości odnośnie tego, że bywa ona myląca i nie uwzględnia różnej specyfiki światowych rynków, to jednak wciąż TIER jest pewnym standardem, do którego odnosi się rynek.

Standaryzacja TIER została opracowana przez amerykański Uptime Institute w połowie lat dziewięćdziesiątych ubiegłego wieku i uwzględnia cztery poziomy. Najniższy z certyfikatów TIER – TIER I – oznacza dostępność na poziomie 99,67%. W praktyce w tym przypadku przerwy w dostępie do danych mogą wynieść w sumie 28,8 godzin rocznie. Obiekty TIER I to zwykłe serwerownie, które w przypadku awarii nie posiadają zapasowych serwerów, łączy czy dostępu do niezależnego źródła energii elektrycznej.

W przypadku TIER II gwarantowana dostępność wynosi 99,75%, a maksymalny, możliwy okres przerw na przestrzeni roku równa się tutaj 22 godzinom. W tym przypadku serwerownie posiadają częściową redundancję w obszarze chłodzenia i zasilania. To standardy wystarczające dla wielu klientów centrów danych, jak choćby blogerów czy niewielkich firm, wśród których wskazać można małe e-sklepy.

Do większych firm i instytucji, które potrzebują jak największej gwarancji dostęp do danych, Uptime Institiute adresuje dwa najwyższe poziomy certyfikacji. TIER III oznacza, że dzięki dostępności wynoszącej 99,982%, klient nie doświadczy dłuższej przerwy w dostępie do swoich zasobów niż 1,6 godziny w ciągu roku a redundancja zasilania pozwoli na utrzymanie działania infrastruktury do 72 godzin w przypadku jej nieplanowanej awarii.

Ostatni poziom klasyfikacji – TIER IV, wymagający największych nakładów ze strony operatorów, a także najdroższy z punktu widzenia klienta, charakteryzuje się dostępnością równą 99,995%. W tym przypadku najdłuższa możliwa przerwa wyniesie nieco ponad 26 minut, a infrastruktura odcięta od zasilania „wytrzyma” nawet 96 godzin.

Praktycy mają wątpliwości

Wiele wskazuje więc na to, że najwyższy poziom certyfikacji jest najlepszym rozwiązaniem dla instytucji i firm, których działalność uzależniona jest od nieprzerwanego dostępu do danych. Ale tylko teoretycznie.
Rzeczywista jakość usług centrów danych jest wypadkową znaczniej większej ilości czynników, a praktyczne różnice pomiędzy ostatnimi poziomami TIER, po uwzględnieniu kosztów dla klientów końcowych, mogą okazać się niezauważalne. „Przerabiałem” ten temat wielokrotnie, choćby przy okazji budowania infrastruktury serwerowej w największym polskim punkcie wymiany ruchu – PLIX-ie, gdzie nie zdecydowaliśmy się na wyśrubowaną certyfikację – tłumaczy Sylwester Biernacki, twórca PLIX, a obecnie prezes zarządu Atmana, lidera polskiego rynku data center. Co ciekawe, do tej pory żaden z klientów Atmana – a obsługuje on m.in. największe banki – nie zasygnalizował potrzeby uzyskania formalnej gwarancji tak wysokiej dostępności, jaką daje certyfikat TIER IV. Dlaczego? Jak wyjaśnia Sylwester Biernacki: – Stwierdzenie, że w naszych ośrodkach wdrożyliśmy jedynie zalecenia TIER III, jest ogromnym uproszczeniem. Jest coś, czego nie da się sklasyfikować, a co często decyduje o sukcesie lub porażce. To doświadczenie, wiedza pracowników, a także rozwiązania technologiczne, które wychodzą daleko poza zwykłą klasyfikację.
Raouf Abdel, COO firmy Equinix Inc., zarządzającej ponad 100 centrami danych na całym świecie, zwraca uwagę, że świadomi klienci zwykle nie przywiązują większej wagi do klasyfikacji TIER.
Przede wszystkim chcą zapoznać się ze specyfikacjami mocy obliczeniowej, doświadczeniem rynkowym operatora czy standardami utrzymania swojej infrastruktury przez specjalistów, które przecież dla każdej spółki z sektora centrów danych mogą być inne – przekonuje.
Eksperci ze spółki ESDS Software Solution, ocenionej przez Economic Times jako najlepszy pracodawca branży operatorów centrów danych w Indiach, zaobserwowali, że klienci często nie są świadomi rzeczywistej różnicy między certyfikatami TIER III a TIER IV, a część graczy na rynku data center wykorzystuje to zamieszanie do przedstawienia swoich usług jako najlepszych. Nie sposób nie odmówić temu rozumowaniu słuszności. Co najmniej dwa centra danych w Polsce chwalą się oficjalnie tym, że spełniają wymagania TIER IV, jednak próżno szukać ich na liście Uptime Institute.

W poszukiwaniu złotego środka

Ale czasami centra danych celowo nie ubiegają się o certyfikację, choć ich infrastruktura mogłaby spełnić wyśrubowane wymagania. Dzieje się to z bardzo prozaicznego powodu: wysokich kosztów. Najpierw trzeba je ponieść po to, by spełnić wymagania techniczne, a następnie ponieść kolejne, przechodząc całą ścieżkę certyfikacji. Koszty musi pokryć klient, a ten czyni to zwykle niechętnie. Być może jest to jeden z powodów, dla którego centrów danych zgodnych z TIER IV jest relatywne niewiele. Nie ma ich ani w Czechach, ani w Niemczech, ani w Holandii. We Francji jest tylko jedno data center, należące do Credit Agricole. Jedno centrum danych spełniające normy TIER IV posiada Rosja i Wielka Brytania.
Wydatki, jakie należy ponieść w związku z wszystkimi aspektami budowy centrum danych w standardzie TIER IV, są moim zdaniem nieadekwatne do osiąganych korzyści. Z doświadczenia wiem, że w konsultacji ze specjalistami rynku data center można zbudować dopracowaną infrastrukturę typu TIER III+, która będzie bardziej niezawodna niż „zwykły” obiekt spełniający wymagania TIER IV – twierdzi Carlos Garcia de la Noceda, IT manager Vodafone. Dzieje się tak głównie dlatego, iż sama certyfikacja odnosi się głównie do projektu i budowy centrum danych. – Tymczasem pod uwagę należy wziąć więcej czynników, jak choćby niezawodność i jakość instalowanego sprzętu, systemów obsługi technicznej, szkolenia personelu, procedury bezpieczeństwa – każdy z nich, poza certyfikacją TIER, ma wpływ na niezawodność dostępu do danych – dodaje Noceda.
Pracownicy Politechniki Warszawskiej – dr hab. inż. Paweł Piotrowski oraz inż. Michał Derlecki –zwracają także uwagę na wzajemną zależność wszystkich elementów infrastruktury data center. Jeśli w konkretnym centrum danych znajdą się solidne i odporne na uszkodzenia instalacje elektryczne stosowane w obiektach TIER IV, ale wykorzystywany tam będzie mechanizm zasilania poziomu TIER II, to finalna dostępność będzie równa gwarancjom tego drugiego standardu.

Parametry oceny obiektów przechowywania i gromadzenia danych przyjęte przez Uptime Institute akcentują głównie topologię i sposób zaprojektowania centrów danych, nie uwzględniając czynników mających bezpośredni wpływ na bezpieczeństwo. Stąd zdarza się, że klienci są mylnie przekonani, że obiekt spełniający najwyższą normę posiada kompleksowy monitoring CCTV, prawidłowo zabezpieczony dostęp fizyczny, np. bramkami weryfikacyjnymi, lub zapewnia skuteczne rozwiązania z zakresu ochrony przed cyberprzestępcami.
Certyfikat TIER jest pewnym wyznacznikiem jakości świadczonych usług i potwierdzeniem zdobytego przez operatora doświadczenia, jednak nie należy przewartościowywać jego znaczenia, zwłaszcza na polskim rynku, gdzie klienci w związku z ograniczaniem budżetów IT skrupulatnie liczą pieniądze i nie zamierzają przepłacać za funkcjonalności, które nie mają wymiernego wpływu na ich biznes. Wiem to z własnego doświadczenia – zdarzało nam się analizować z klientem potrzebę wybudowania dedykowanego fragmentu infrastruktury TIER IV i nasz obiekt jest do tego przystosowany, jednak biorąc pod uwagę potrzeby firm i tzw. portfel polskiego klienta, posiadany przez nas standard TIER III+ jest w zupełności wystarczający. Jego podwyższenie oznaczałoby konieczność podniesienia cen naszych usług bez większej korzyści dla klientów – dodaje Sylwester Biernacki z Atmana.
Jego zdaniem na polskim rynku nie bez powodu nie ma dziś serwerowni, która w 100% spełnia wymagania TIER IV. Na takie usługi nie ma po prostu zapotrzebowania.
OVH, które konsekwentnie rozwija swoją sieć hubów serwerowych tworzonych w oparciu o własne, sprawdzone standardy, otworzyło niedawno pod Ożarowem nowy obiekt w stalowych kontenerach i zrobiło to nie bez powodu. Duża część klientów woli zapłacić mniej, niż mieć gwarancję wysokiej niezawodności, bo zwyczajnie jej nie potrzebuje – zwraca uwagę Sylwester Biernacki z Atmana. Klient powinien patrzeć nie tyle na certyfikację, ile na doświadczenie dostawcy, opinie i referencje, bo doświadczenia pokazują, że to człowiek, a nie technologia jest najsłabszym ogniwem w obszarze bezpieczeństwa. – Niezależnie od tego, jakim poziomem certyfikacji może pochwalić się data center, każdy menedżer powinien złożyć wizytę w centrum danych i zobaczyć, jak ono funkcjonuje w praktyce. I przekalkulować ryzyko oraz swój budżet. Dostosować TIER do swoich potrzeb, a nigdy odwrotnie – zaznacza Biernacki.
Certyfikacyjne bariery

Przykładów na słuszność tej tezy nie brakuje. Z dużą dozą prawdopodobieństwa można założyć, że tak jak bank nie skorzystałby z serwerowni OVH, tak i spora część klientów OVH nie wybrałaby z serwerowni Atmana. Dlaczego?

Klienci dobrze zdają sobie sprawę z tego, co chcą otrzymać i ile mogą za to zapłacić. Dla banku wyższy TIER jest koniecznością, dla mniejszych graczy z kolei jest zbędnym, wyśrubowanym standardem, którego zwyczajnie nie zamierzają finansować. Ci ostatni zresztą nieraz potrzebują niedrogiego środowiska, w którym mogą zdobyć pierwsze doświadczenia, potestować czy wręcz poeksperymentować z IaaS, by w miarę rozwoju skierować się w stronę zaawansowanych usług data center.

Dlatego na rynku powinno być – i jest – miejsce dla dostawców usług z obszaru data center w różnych standardach. Certyfikacja TIER nie powinna być nadrzędnym parametrem, od którego powinno się uzależniać wybór danego operatora. Postrzeganie jej w taki właśnie sposób oznacza stawianie sztucznych barier, utrudniając w praktyce trafny dobór usług do aktualnych potrzeb przedsiębiorstwa.

Test Piotrowskiego i Derleckiego

Dwóch pracowników Politechniki Warszawskiej – dr hab. inż. Paweł Piotrowski oraz inż. Michał Derlecki na łamach miesięcznika Elektro.Info postanowili porównać klasyfikacje TIER obiektów data center. Ich zdaniem, optymalnym rozwiązaniem wydaje się obiekt klasy TIER III, którego koszty konstrukcji mogą wynosić 50% więcej niż w przypadku centrów w niższych standardach, jednak jego dostępność będzie kilkukrotnie wyższa. W przypadku standardu TIER IV znacznie większe koszty projektu, budowy oraz utrzymania projektu względem III poziomu certyfikacji nie uzasadniają, zdaniem autorów publikacji, zaledwie śladowej różnicy dostępności.

Praktycy wypowiadają się w podobnym tonie. Prezes Atmana Sylwester Biernacki podkreśla:
W przypadku takich inwestycji jak data center oczekujmy zakupów uzasadnionych kosztowo, podobnie jak w obszarze wydatków na administrację publiczną. To przecież jest powodem, dla którego kolejne polskie rządy wybierają BMW czy Audi, a nie samochody jeszcze wygodniejsze i bezpieczniejsze, np. klasy Jaguara czy Maybacha. W biznesie także powinniśmy kierować się pragmatyką, czyli stosunkiem ceny do jakości. Atman korzystał z dofinansowania przy budowie swojego kampusu centrodanowego, zatem stosowaliśmy takie właśnie zasady.
Analogiczny punkt widzenia reprezentuje Rahul Shewale, konsultant Capgemini. Jego zdaniem wybór pomiędzy TIER III a TIER IV sprowadza się w zasadzie wyłącznie do tego, czy potrzebujemy bardzo wysokiej niezawodności i czy jesteśmy w stanie za to zapłacić.
Jeśli szukamy niezawodnego i odpornego na czynniki zewnętrzne i wewnętrzne centrum danych, to TIER IV jest koniecznością. Jednak jeśli szukamy złotego środka pomiędzy wydajnością a kosztami, to TIER III jest znacznie lepszym wyborem – przekonuje.

PODOBNE


loading...