Podróż w chmury

Spowolnienie rynku oraz rosnąca dojrzałość klientów powodują, że dla firm zajmujących się realizacją projektów informatycznych efektywność kosztowa stała się codziennym wyzwaniem. Udział w przetargach publicznych czy elektronicznych aukcjach internetowych powoduje, że dostarczanie wymiernych korzyści biznesowych nie jest już wystarczające. Sukcesu nie będzie jeżeli koszt oferowanych rozwiązań nie będzie dopasowywany do zasobności portfela zamawiających i ostrej konkurencji na rynku.
 
 REKLAMA 
 Wdrażasz KSeF w firmie 
Dla klientów to zalety, ale aby projekty były opłacalne dla dostawców, konieczne jest podejmowanie działań obniżających koszty wewnętrzne tych organizacji. Dostosowanie do takich realiów wymaga skutecznego inwestowania w rozwiązania informatyczne, pozwalające na podnoszenie wydajności i automatyzowanie prac. Jednym z obszarów, w którym możliwe są oszczędności, jest wsparcie narzędziowe w zakresie obsługi środowisk developerskich, testowych i serwisowych.

Dla Globemy, która na Polskim rynku od 14 lat zajmuje się realizacją wdrożeń informatycznych o wysokim stopniu dopasowania do potrzeb klienta, podróż do chmury prywatnej rozpoczęła się właśnie w tym miejscu.

Drogę wskazał Zarząd

W roku 2011, gdy przymierzaliśmy się do zmian w infrastrukturze plany rozwoju po stronie IT nie sięgały tak daleko. Projekty realizowane przez Globemę były przede wszystkim oparte na produktach do ewidencji zasobów przestrzennych i paszportyzacji, realizowanych w oparciu o platformę GE Smallworld oraz produkty własne. Rozwój firmy na rynki zagraniczne i rosnąca liczba klientów wymagały wprowadzenia zmian w infrastrukturze.

Przygotowywaliśmy się do wymiany dwóch maszyn. Testowej – przeznaczonej do przeprowadzania testów funkcjonalnych i instalacyjnych w ramach procesu przygotowania rozwiązań dla klienta. Serwisowej – odpowiedzialnej za przechowywanie kopii aktualnych rozwiązań działających u naszych klientów, objętych usługami wsparcia pogwarancyjnego. Głównymi powodami do zmiany była wydajność i pojemność naszych środowisk. Było też kilka ograniczeń funkcjonalnych, które planowaliśmy wyeliminować przy okazji odświeżenia infrastruktury.

Nowa strategia, przedstawiona przez Zarząd firmy w 2011 r. stała się wyraźnym impulsem do zmiany podejścia. Plan zakładał rozszerzenie portfela produktów i usług o rozwiązania z zakresu zarządzania pracami w terenie (WFM – Work Force Management), lokalizacji w czasie rzeczywistym, a także migracji, konwersji i wprowadzania danych. Dodatkowo, naszym celem było uzyskanie statusu Centrum Badawczo-Rozwojowego, a wraz z tym, obsługa kolejnych wdrożeń o charakterze badawczym, realizowanych na innych niż dotychczas platformach narzędziowych. Po stronie IT szybko zorientowaliśmy się, że zakres i sposób przeprowadzenia zmiany musi zostać całkowicie przedefiniowany, bo realizacja takich celów przenosi nas w nowy wymiar współpracy biznes-IT.

Dokąd chce iść biznes?

Patrząc z zewnątrz na firmę developerską mamy do czynienia z sytuacją, gdzie po stronie biznesu pojawiają się zespoły, które w innych organizacjach są częścią działów IT. Są to między innymi: programiści, architekci, analitycy i wdrożeniowcy, a więc ludzie, mający w obszarze IT wiedzę często porównywalną z administratorami, zajmującymi się utrzymaniem infrastruktury. To wymagający klient wewnętrzny, oczekujący ze względu na wysoką świadomość informatyczną, dużej autonomii w działaniu i usług na wysokim poziomie. Dla IT to duże wyzwanie, ale i duża zachęta do wdrażania nowoczesnych i skutecznych rozwiązań. Dobra komunikacja i otwartość na współpracę stanowi w takiej sytuacji klucz do uzyskania synergii.

Do realizacji projektu powołany został 3 osobowy zespół, odpowiedzialny za zebranie wymagań, przygotowanie propozycji rozwiązania i późniejsze wdrożenie. W ciągu 8 spotkań analitycznych zespół spotkał się w sumie z kilkunastoma specjalistami reprezentującymi wszystkie techniczne zespoły po stronie biznesu (trzy zespoły deweloperskie, dwa zespoły wdrożeniowe i jeden odpowiedzialny za testy i wsparcie pogwarancyjne). Oprócz reprezentacji działów osoby te zostały dobrane w taki sposób by reprezentowały różne technologie wykorzystywane po stronie biznesu. Celem spotkań była wymiana wiedzy na temat stosowanych i planowanych do wdrożenia platform technologicznych oraz określenie wymagań w zakresie konfiguracji, pojemności, wydajności i dostępności.

W sumie zebraliśmy ponad 100 wymagań, które następnie zostały ponownie przeanalizowane w pod kątem precyzji oraz zasięgu i wpływu na sposób działania całego działu technicznego. Na tej podstawie wymagania zostały pogrupowane. Nadano również priorytety. Przy okazji, doprecyzowane zostały podstawowe scenariusze tworzenia nowych środowisk, zależnie od przeznaczenia.

Istotny wkład w przygotowanie wymagań stanowiły założenia wydajnościowe i szacunki pracochłonności wybranych operacji. Zostały one zebrane w odniesieniu do dotychczasowych doświadczeń i możliwości posiadanej infrastruktury. Założyliśmy ambitne wymagania, których realizacja pozwoliłaby na osiągnięcie wymiernych korzyści. Objęły one takie zadania, jak:
  • Czas przygotowania nowego środowiska wraz z przeniesieniem danych,
  • Czas przywrócenia środowiska z zachowanego stanu,
  • Czas potrzebny do uruchomienia gotowego środowiska serwisowego wraz z podniesieniem wszystkich komponentów.

Następnie, określone zostały założenia, pozwalające na zwymiarowanie pojemności projektowanego rozwiązania, obejmujące parametry maszyn wirtualnych (liczba i moc procesorów, pamięć RAM), liczba przechowywanych środowisk, liczba jednocześnie uruchomionych środowisk. Wiedzieliśmy już czego potrzebujemy, teraz potrzebne było rozwiązanie, które to zapewni.

Dobrze, a czym się tam dostać?

Jeszcze na etapie analizy oczywistym okazało się, że rozwiązanie którego potrzebujemy zmierza w kierunku wirtualizacji. W ślad za tym pojawiło się też kilka istotnych wątpliwości. Po pierwsze nasza wiedza z tego obszaru była dość ograniczona. W firmie posiadaliśmy wiedzę na temat różnych rozwiązań wirtualizacyjnych, ale zakres ich stosowania, w naszym wypadku, ograniczał się do lokalnych rozwiązań, głównie w zakresie darmowych rozwiązań, stosowanych doraźnie w różnych projektach. Po drugie, mieliśmy wątpliwość, czy stać nas będzie na wdrożenie kompletnego, komercyjnego rozwiązania wirtualizacyjnego. Dotychczas takie rozwiązania były zarezerwowane dla dużych odbiorców korporacyjnych, w których działy IT są rozmiaru całej naszej firmy. I wreszcie, dopasowanie rozwiązania do specyfiki naszego działania, cechującej się dużą dynamiką (czas życia środowiska testowego to pojedyncze dni), dużą ilością danych (zbiory danych wykorzystywane w testach często obejmują 100 GB) oraz wydajność (wąskim gardłem są: szybkość dysków i opóźnienia w transmisji w sieci).

Reasumując, pytania przed którym stanęliśmy brzmiały: „Czy czas poświęcony na uzupełnienie wiedzy i analizę rozwiązań nie będzie zmarnowany, w przypadku, gdy ostatecznie nie będzie nas stać na takie wdrożenie?” „Czy nie lepiej od razu poszukać innych rozwiązań?”

Na szczęście, w zakresie finansowym dysponowaliśmy poważnym wsparciem. Po pierwsze, zmiany miały wspomagać nową strategię firmy, co dawało nam poparcie Zarządu w ramach wykorzystania środków własnych. Po drugie, również dzięki staraniom Zarządu, część kosztów wdrożenia mogła zostać sfinansowana z funduszy unijnych, w ramach projektu budowy Centrum Rozwoju Oprogramowania. Nie gwarantowało to realizacji dowolnej koncepcji, ale pozwalało na sięgnięcie po nowoczesne technologie i zaplanowanie zmiany o większym zakresie, z nastawieniem na wyższy zwrot z inwestycji dla właścicieli, oraz elastyczność i pojemność dla IT.

Pod uwagę braliśmy różne rozwiązania, ale w końcowym etapie skupiliśmy się na produktach VmWare i Microsoftu. Jeśli chodzi o funkcjonalność i pozycję na rynku wyższe notowania miał ten pierwszy. Jednak, dla naszych potrzeb różnice nie były aż tak duże i o wyborze platformy wirtualizacji ostatecznie przesądziła kwestia kosztów licencji na systemy operacyjne maszyn wirtualnych. W naszym wypadku są to głównie systemy serwerowe firmy Microsoft, a przy zakładanej liczbie 100-150 środowisk możliwość instalacji nielimitowanej liczby maszyn wirtualnych w ramach licencji Windows Server DataCenter Edition okazała się kluczowa.

Korzyści z podróży

Z perspektywy kilkumiesięcznego użytkowania możemy dziś powiedzieć, że inwestycja w chmurę prywatną przynosi faktyczne wymierne korzyści dla naszej firmy. Skrócenie czasu przygotowania środowisk, zmniejszenie liczby osób zaangażowanych w ich przygotowanie, korzystnie wpływa na bieżące koszty operacyjne. Jednak, to co będzie procentowało w dłuższej perspektywie to wewnętrzna zmiana naszej organizacji.

Po pierwsze, wypracowane rozwiązanie pozwala na skuteczne wspieranie nowej strategii firmy i jest przygotowane na dalsze wyzwania.

Po drugie, biznes bardzo kreatywnie wykorzystuje dostęp do nowych, dotychczas trudnych do realizacji lub pracochłonnych usług, takich jak:
  • Uzyskanie platformy pozwalającej na budowę heterogenicznych środowisk wieloserwerowych, w tym rozwiązań klastrowych, 
  • Przewidywalny, powtarzalny czas przygotowania nowego środowiska, na podstawie predefiniowanych szablonów,
  • Możliwość przeprowadzenie wiarygodnych testów instalacji, od czystego systemu, na wielu systemach operacyjnych,
  • Możliwość przeprowadzenie testów wydajnościowych i integracyjnych dla projektów o złożonej architekturze,
  • Możliwość współpracy zespołów developerskiego nad rozwojem aplikacji w środowiskach serwerowych bez konieczności zakupu dodatkowych dedykowanych maszyn.
I wreszcie, dzięki narzędziom automatyzującym pracę, znakomita większość tych usług może być zrealizowana samodzielnie bez bezpośredniego angażowania zespołu IT, co dodatkowo zachęca do samodzielnego, kreatywnego działania.

Dobrą ilustracją zachodzącej zmiany jest fakt, że coraz częściej pytania, z którymi spotykają się administratorzy nie brzmi już: „Czy możecie/dacie radę przygotować…?”. Obecnie to pytanie zaczyna się od: „A jak to możemy zrobić?”.

Tę chmurę już znamy, teraz idziemy dalej

Pozytywne doświadczenia z realizacji tego wdrożenia zaostrzyły nasz apetyt na osiągnięcie kolejnych korzyści. Jeszcze na etapie stabilizacji rozwiązania uruchomiony został równoległy projekt rozbudowy pojemności infrastruktury i rozpoczęcie migracji systemów produkcyjnych i pokazowych do istniejącej chmury. Już teraz rozwiązanie jest przygotowane do rozliczania wykorzystania zasobów z podziałem na poszczególne zespoły; czekamy na sygnał do uruchomienia. W chwili obecnej planowane są dalsze prace rozwojowe związane z automatyzacją utrzymania i obsługi naszej platformy w oparciu o kolejne komponenty z rodziny System Center.

Gdzie skończy się ta podróż? Myślę, że to dopiero początek…

Autor: Marek Godala - Dyrektor Działu Wsparcia Technicznego w firmie GLOBEMA

Źródło: Raport: OPTYMALIZACJA IT pod redakcją Roberta Jesionka - http://robertjesionek.files.wordpress.com

PRZECZYTAJ RÓWNIEŻ:


Back to top