Od współczesnych aplikacji biznesowych wymaga się ciągłego i stabilnego działania. Ich wysoka dostępność – często przez całą dobę, siedem dni w tygodniu – jest dla użytkowników końcowych elementem niezbędnym do prawidłowego funkcjonowania przedsiębiorstwa. Każda przerwa w działaniu systemu może skutkować przestojem w realizacji procesów wewnętrznych, opóźnieniami w prowadzonych projektach bądź też niemożnością zapewnienia usług klientom.
Wszystkie te czynniki mogą w efekcie skutkować ogromnymi stratami dla firmy z tytułu utraconych przychodów bądź kar umownych zawartych w kontraktach, doprowadzając nawet do upadku przedsiębiorstwa.
Najważniejsza ciągłość i stabilność
Przestoje w działaniu aplikacji firmowych mogą mieć wiele przyczyn. Najczęstsze z nich to awarie oprogramowania, sprzętu, infrastruktury technicznej lub po prostu błąd człowieka. Przerwa w dostępie może być także wynikiem planowanych prac konserwacyjnych. Ryzyko awarii czy też czas przestoju da się ograniczyć do minimum wybierając odpowiednie rozwiązanie. Jego wybór uzależniony jest od specyfiki obszaru przedsiębiorstwa, w którym działa aplikacja oraz związanych z tym potrzeb. Koszt implementacji nie powinien jednak przewyższać potencjalnych strat wynikających z przerwy w dostępie.
Redundancja nie zawsze szkodliwa
Przy projektowaniu właściwego rozwiązania należy wziąć pod uwagę wszystkie te elementy infrastruktury, które mogą być źródłem przestoju. Eliminować je można poprzez wykorzystanie redundancji poszczególnych z nich. Dla krytycznych systemów nadmiarowość powinna być stosowana we wszystkich warstwach, zaczynając od serwerów, pamięci masowych poprzez urządzenia sieciowe, a kończąc na właściwym doborze elementów chłodzących serwerownie. W przypadku specjalistycznych centrów danych budynki wyposażane są w systemy przeciwpożarowe, niezależne łącza internetowe różnych dostawców oraz alternatywne źródła zasilania. Wiele instytucji umieszcza kluczowe dla ich działania systemy w rozproszonych geograficznie serwerowniach będących w stanie replikować między sobą dane i zastępować się wzajemnie w przypadku lokalnej katastrofy (powodzi, pożaru czy też ataku terrorystycznego).
Na każdą kieszeń
Coraz częściej wysoka dostępność aplikacji może być uzyskana niższym niż dotychczas kosztem. Różnorodność dostępnych technologii umożliwia ich dopasowanie do możliwości finansowych każdej firmy. Współczesne serwery praktycznie zawsze wyposażone są w redundantne podzespoły, a aplikacje, bazy danych czy systemy operacyjne dają możliwość replikacji danych, pracy w układzie klastra czy też trybie standby. Jednak zawsze należy pamiętać o dbałości o właściwą konfigurację procesów, oprogramowania, serwerów i urządzeń, monitorowanie ich stanu, bieżącą aktualizację software, firmware czy też oprogramowania antywirusowego. Standardem staje się również cykliczne przeprowadzanie testów procedur awaryjnych symulujących usterkę poszczególnych elementów infrastruktury oraz próbne odtwarzania środowisk z backupu.
Dmuchanie na zimne
Zdarza się jednak, że wydatki ponoszone na zapewnienie wysokiej dostępności systemów nie są priorytetowe. Osoby podejmujące decyzje finansowe nie zawsze mają świadomość potencjalnych źródeł oraz skutków awarii. Zadaniem szefów IT jest opracowanie szczegółowej listy zagrożeń wraz z prawdopodobieństwem ich wystąpienia. Na jej podstawie można oszacować koszty każdego przestoju oraz ryzyko z nim związane. Przedstawienie takiej kalkulacji osobom decyzyjnym w większości przypadków ułatwia pozyskanie środków na odpowiednie rozwiązanie.
Najważniejsze ogniwo
Jednak nawet bardzo duże koszty poniesione na najnowocześniejsze technologie mające zapewnić ciągłość działania aplikacji mogą być niewystarczające bez uwzględnienia czynnika ludzkiego. Każde zaawansowane rozwiązanie wymaga posiadania wykwalifikowanego personelu będącego w stanie odpowiednio je skonfigurować i nim administrować. Dobór właściwych pracowników oraz umożliwienie im ciągłego podnoszenia kwalifikacji jest niezmiernie ważnym elementem, o którym należy pamiętać mając na uwadze zapewnienie wysokiej dostępności aplikacji firmowych. Nierzadko ich kreatywność przy tworzeniu infrastruktury oraz umiejętnie podejmowane decyzje w sytuacjach awaryjnych pozwalają na zminimalizowanie przestojów systemów gdy zawodzą drogie i zaawansowane technologie.
Autor: Remigiusz Morawiecki, Dyrektor Działu Wsparcia Technicznego w UNIT4 TETA
Najważniejsza ciągłość i stabilność
Przestoje w działaniu aplikacji firmowych mogą mieć wiele przyczyn. Najczęstsze z nich to awarie oprogramowania, sprzętu, infrastruktury technicznej lub po prostu błąd człowieka. Przerwa w dostępie może być także wynikiem planowanych prac konserwacyjnych. Ryzyko awarii czy też czas przestoju da się ograniczyć do minimum wybierając odpowiednie rozwiązanie. Jego wybór uzależniony jest od specyfiki obszaru przedsiębiorstwa, w którym działa aplikacja oraz związanych z tym potrzeb. Koszt implementacji nie powinien jednak przewyższać potencjalnych strat wynikających z przerwy w dostępie.
Redundancja nie zawsze szkodliwa
Przy projektowaniu właściwego rozwiązania należy wziąć pod uwagę wszystkie te elementy infrastruktury, które mogą być źródłem przestoju. Eliminować je można poprzez wykorzystanie redundancji poszczególnych z nich. Dla krytycznych systemów nadmiarowość powinna być stosowana we wszystkich warstwach, zaczynając od serwerów, pamięci masowych poprzez urządzenia sieciowe, a kończąc na właściwym doborze elementów chłodzących serwerownie. W przypadku specjalistycznych centrów danych budynki wyposażane są w systemy przeciwpożarowe, niezależne łącza internetowe różnych dostawców oraz alternatywne źródła zasilania. Wiele instytucji umieszcza kluczowe dla ich działania systemy w rozproszonych geograficznie serwerowniach będących w stanie replikować między sobą dane i zastępować się wzajemnie w przypadku lokalnej katastrofy (powodzi, pożaru czy też ataku terrorystycznego).
Na każdą kieszeń
Coraz częściej wysoka dostępność aplikacji może być uzyskana niższym niż dotychczas kosztem. Różnorodność dostępnych technologii umożliwia ich dopasowanie do możliwości finansowych każdej firmy. Współczesne serwery praktycznie zawsze wyposażone są w redundantne podzespoły, a aplikacje, bazy danych czy systemy operacyjne dają możliwość replikacji danych, pracy w układzie klastra czy też trybie standby. Jednak zawsze należy pamiętać o dbałości o właściwą konfigurację procesów, oprogramowania, serwerów i urządzeń, monitorowanie ich stanu, bieżącą aktualizację software, firmware czy też oprogramowania antywirusowego. Standardem staje się również cykliczne przeprowadzanie testów procedur awaryjnych symulujących usterkę poszczególnych elementów infrastruktury oraz próbne odtwarzania środowisk z backupu.
Dmuchanie na zimne
Zdarza się jednak, że wydatki ponoszone na zapewnienie wysokiej dostępności systemów nie są priorytetowe. Osoby podejmujące decyzje finansowe nie zawsze mają świadomość potencjalnych źródeł oraz skutków awarii. Zadaniem szefów IT jest opracowanie szczegółowej listy zagrożeń wraz z prawdopodobieństwem ich wystąpienia. Na jej podstawie można oszacować koszty każdego przestoju oraz ryzyko z nim związane. Przedstawienie takiej kalkulacji osobom decyzyjnym w większości przypadków ułatwia pozyskanie środków na odpowiednie rozwiązanie.
Najważniejsze ogniwo
Jednak nawet bardzo duże koszty poniesione na najnowocześniejsze technologie mające zapewnić ciągłość działania aplikacji mogą być niewystarczające bez uwzględnienia czynnika ludzkiego. Każde zaawansowane rozwiązanie wymaga posiadania wykwalifikowanego personelu będącego w stanie odpowiednio je skonfigurować i nim administrować. Dobór właściwych pracowników oraz umożliwienie im ciągłego podnoszenia kwalifikacji jest niezmiernie ważnym elementem, o którym należy pamiętać mając na uwadze zapewnienie wysokiej dostępności aplikacji firmowych. Nierzadko ich kreatywność przy tworzeniu infrastruktury oraz umiejętnie podejmowane decyzje w sytuacjach awaryjnych pozwalają na zminimalizowanie przestojów systemów gdy zawodzą drogie i zaawansowane technologie.
Autor: Remigiusz Morawiecki, Dyrektor Działu Wsparcia Technicznego w UNIT4 TETA