Zdolność przedsiębiorstw i instytucji do szybkiego odtworzenia środowiska pracy w wyniku awarii lub cyberataku jest dziś wystawiana na bardzo trudną próbę. Bardzo wiele biznes „zawdzięcza” tutaj pandemii i powszechnemu przejściu na pracę zdalną. Jak informuje ostatnia analiza Neustar International Security Council (NISC) ponad połowa (54%) firm zarówno w regionie EMEA, jak i za oceanem, wciąż doświadcza problemów z przestojami spowodowanymi niedostępnością systemów IT.


 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Nic zatem dziwnego, że na pierwszym miejscu obszarów inwestycyjnych przedsiębiorstw znalazły się zarówno rozwiązania technologiczne jak i strategie planowania oraz know-how z zakresu utrzymania ciągłości działania i zapewnienia środowiskom IT odporności na nieoczekiwane zajścia i awarie. O tym dowodzi analiza ESG – 2021 Technology Trends To Watch, z której wynika, że najwięcej – 53% respondentów – planuje przeznaczyć największą część swojego budżetu IT na „nienaruszalną” infrastrukturę.

Długotrwałe zmagania

Analitykom firmy Neustar udało się dowieść, że ponad 60% firm doświadczało znaczących lub umiarkowanie kłopotliwych przestojów w funkcjonowaniu w ciągu pierwszych sześciu miesięcy pandemii. Główna przyczyna? Organizacyjny chaos i potrzeba szybkiego dostosowania firmowych zasobów do pracy zdalnej. A następnie – m.in. niewłaściwe przyznawanie uprawnień, niedostatecznie zabezpieczone połączenia w ramach VPN czy wreszcie brak rozwiązań odtwarzających ostatnią, stabilną wersję cyfrowego środowiska firmy. Można by zatem przypuszczać, iż po opanowaniu tej wymagającej sytuacji i próbach zapewnienia sobie odpowiednich narzędzi problem znacznie zmalał lub niemal zniknął w ciągu kolejnego półrocza. Nic bardziej mylnego.

Po weryfikacji zdarzeń z następnych 6 miesięcy od wybuchu pandemii okazuje się, że liczba firm zmagających się z przestojami zmalała w tym czasie o zaledwie 7%.

Choć skutki globalnej pandemii stają się coraz mniej odczuwalne dla firm i organizacji i mija już niemal 1,5 roku od jej początków, spotęgowane przez nią problemy z utrzymaniem ciągłości działania systemów IT nie słabną. Dzieje się tak w głównej mierze dlatego, że o ile większość organizacji zapewnia, że posiada plany odzyskiwania zasobów po awarii oraz rzekomo odpowiednie narzędzia temu służące, praktyka często weryfikuje ich realną przydatność. Odpowiedzialna strategia Disaster Recovery wymaga zwykle większego zaangażowania na poziomie technologicznym jak i organizacyjnym – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.


„Kopie bardzo zapasowe”

Niezależnie od stosowanych zabezpieczeń z zakresu cyberbezpieczeństwa czy rozwiązań uodparniających infrastrukturę IT na problemy natury losowej (jak choćby przestoje w dostawie energii elektrycznej czy łączności internetowej) poprzez zwielokrotnienie zasobów, skuteczną metodą utrzymania ciągłości wydaje się posiadanie tzw. kopii zapasowej cyfrowego środowiska firmy. Popularny backup ma za zadanie odtworzyć ostatnie działające wersje systemów i aplikacji oraz wszystkie zgromadzone dane. Problem w tym, że bardzo często „kopie kopiom nierówne” i utrzymywane są one jedynie jako nieodzowny fragment planu Disaster Recovery, który wcale nie musi zadziałać w przypadku zajścia takiej potrzeby.

Najnowsza odsłona badania Veeam – Data Protection Report 2021 dowiodła, że niemal 60% firmowych kopii zapasowych zwyczajnie nie działa i nie jest w stanie nie tylko w krótkim czasie, ale w ogóle przywrócić działania systemów sprzed awarii czy cyberataku. W przypadku rozwiązań backupowych posiadanych wewnątrz organizacji, a więc on-premise, problematyczna jest zwykle konieczność jego ręcznego konfigurowania, aktualizowania i wykonywania kopii zapasowych przez administratorów.

W praktyce, gdy środowisko IT działa jak należy, z bieżącą obsługą backupu bywa różnie. Dopiero w momencie wystąpienia nagłej awarii okazuje się zwykle, że ostatnia kopia zasobów wykonana została np. kilka miesięcy temu lub jest aktualna, ale zawiera jedynie jedną czwartą wszystkich danych. Stąd, obserwowany już dzisiaj zwrot coraz większej liczby firm w stronę usług backupu w chmurze, gdzie w pełni automatycznie jest on w stanie wykonywać kopie zasobów przedsiębiorstwa nawet co godzinę. Co więcej, znaczna część odpowiedzialności za ciągłość funkcjonowania biznesu przechodzi tutaj na dostawcę usługi, który poza narzędziem może także dostarczać wsparcie w zakresie planowania i zarządzania kryzysowego – dodaje Marcin Zmaczyński z Aruba Cloud.


Jak informuje raport Veeam, w minionym roku 29% firmowych kopii zapasowych było ulokowanych w chmurze obliczeniowej, zaś już w 2023 roku backup w tym modelu będzie odpowiadał za ponad połowę ogółu .

Za każdą chmurą „stoi” centrum danych

Warto pamiętać, iż sam fakt posiadania kopii zapasowej w chmurze jest bardzo istotny, ale nie gwarantuje jeszcze jej niezawodności. W tym przypadku, odtworzenie nominalnego środowiska pracy po awarii czy incydencie cyberbezpieczeństwa następuje w centrum danych dostawcy rozwiązania, które jest przecież fizycznym obiektem, także narażonym na wpływ warunków atmosferycznych czy działalność internetowych przestępców.

W wyborze partnera technologicznego ciągłości funkcjonowania biznesu trzeba zatem wziąć pod uwagę, jak zabezpieczone są jego centra danych. Mowa tutaj zwłaszcza o poziomie posiadanej certyfikacji ANSI/TIA lub Uptime Institute, ale także geograficznej lokalizacji kampusów. Dla wielu klientów znaczenie ma nie tylko pełna odporność na wspomniane czynniki, ale także gwarancja, że ich dane będą gromadzone i przetwarzane wyłącznie na terenie Unii Europejskiej. Ze względu na bardzo restrykcyjne prawo ochrony cyfrowych informacji – uzupełnia Marcin Zmaczyński z Aruba Cloud.


Źródło: Aruba Cloud

PRZECZYTAJ RÓWNIEŻ:


Back to top