4 sposoby na własną serwerownię. Wady, zalety i koszty rozwiązań
Każda firma jest dziś firmą technologiczną
Every company is a technology company – Peter Sondergaard, Gartner
W lipcu 2016 roku amerykański Verizon zwrócił się do swoich użytkowników w następujący sposób: zmieńcie plan taryfowy albo stracicie dostęp do usług. Powodem była obawa o przeciążenie sieci – okazało się, że część użytkowników operatora korzysta z Internetu wyjątkowo aktywnie: w wielu przypadkach transfer danych przekraczał znacząco próg 100 GB. Aż trudno w to uwierzyć zważywszy, że jeszcze niedawno oferowany przez operatorów limit 2 GB miesięcznie uznawano za w zupełności wystarczający.
Lawina cyfrowych danych
Statystyki są nieubłagane: z globalnej sieci korzysta już blisko 3,5 mld osób. W każdej sekundzie wysyłanych jest 2,5 miliona e-maili, w tym czasie Google przetwarza ponad 50 tys. zapytań, a YouTube notuje 135 tys. wyświetleń. Liczba przetwarzanych globalnie danych sięga już blisko 40 tys. GB w ciągu sekundy. Gdy przemnożymy tę wartość przez 86 400 (z tylu sekund składa się doba), otrzymamy liczbę, którą wprost trudno sobie wyobrazić. To jednak dopiero przedsmak tego, co nas w najbliższym czasie czeka.
Zgodnie z szacunkami IDC do 2020 roku liczba globalnie generowanych danych powiększy się co najmniej dziesięciokrotnie, zaś każdy użytkownik sieci wytwarzał będzie wówczas 1,7 MB danych co sekundę. W przedsiębiorstwach morze danych wygeneruje cyfrowa transformacja biznesu, która jak się okazuje, nie jest wyłącznie marketingowym sloganem. Badanie przeprowadzone niedawno przez IDC na zlecenie Oracle jasno pokazuje, że również polskie firmy chcą wziąć w niej udział. 39% przedsiębiorstw planuje lub rozważa wdrożenie chmury obliczeniowej, będącej jednym z filarów transformacji, 14% wyraża podobną opinię na temat rozwiązań mobilnych, a 15% – technologii Big Data.
To rosnące uzależnienie od technologii i nieprzerwanego przetwarzania strumieni danych niesie ze sobą wiele korzyści, ale również i wyzwań. Wraz ze wzrostem liczby danych zwiększa się bowiem również liczba zagrożeń i wysokość wydatków, które trzeba ponieść, by zagwarantować stały dostęp do informacji. Bo firmy – czy tego chcą czy nie – są i będą w coraz większym stopniu uzależnione od technologii IT i przetwarzania danych. Dotyczy to nie tylko obszarów rynku, które uznaje się za najbardziej zaawansowane technologicznie – finansów, bankowości czy e-commerce, ale także branż, które dopiero zaczynają dzisiaj zdawać sobie sprawę z konieczności szybkiej cyfryzacji. Każda firma, która nie będzie obecna w cyfrowym świecie – czyli tam, gdzie obecnie znajduje się większość klientów – będzie miała problem z utrzymaniem się na rynku. Nie mniejszy problem będzie miało przedsiębiorstwo, które nie będzie wystarczająco zabezpieczone na wypadek utraty dostępu do informacji. Każda minuta braku dostępu do danych oznacza bowiem w cyfrowej gospodarce wymierne straty. Zdaniem ekspertów Ponemon Institute jest to już średnio 5 600 dolarów. Szacuje się, że w wyniku przerw w dostępie do Internetu globalna gospodarka traci już niemal 2,5 mld dolarów rocznie.
Nie tylko hakerzy są zagrożeniem dla danych
Jednym z oczywistych zagrożeń dla biznesowego ekosystemu napędzanego danymi są crackerzy. W Polsce w 2015 roku liczba cyberataków wzrosła o 46%. Jak wynika z danych PwC, zarejestrowane akty cyberagresji w 33% przypadków przełożyły się na straty finansowe, w 31% spowodowały ujawnienie lub modyfikację danych, a w 16% wpłynęły na utratę reputacji przedsiębiorstwa. Z prognoz firmy analitycznej Cybersecurity Ventures wynika, że liczba danych, które będą musiały zostać objęte cyberochroną, wzrośnie do końca dekady aż pięćdziesięciokrotnie. Powód? Przestępczość coraz częściej przenosi się do wirtualnego świata. Same straty finansowe wynikające z działalności cyberprzestępców wzrosną dwukrotnie – z 3 bilionów w 2015 r. do 6 bilionów dolarów w 2021 r.
Problemy nie wynikają jednak wyłącznie z działań cyberprzestępców. Wbrew pozorom, ciągłości działania zagrażają błahe wydawałoby się problemy – jak awarie energii elektrycznej czy dostępu do Internetu. Doskonale ilustrują to wyniki badań Atmana, przeprowadzonych kilka lat temu na grupie ponad 300 osób odpowiedzialnych za bezpieczeństwo infrastruktury IT.
Wynika z nich, że ponad połowa z badanych firm doświadczyła przerw w dostępie do Internetu lub energii elektrycznej na przestrzeni kwartału. Aż 41% przedsiębiorstw musiało z tego powodu poważnie ograniczyć bądź całkowicie wstrzymać działalność. I bynajmniej nie na kilkanaście minut czy kilka godzin. Zdarzało się, że nawet na kilka dni. Zarówno badanie Atmana, jak i decyzja Verizona dobrze obrazuje wyzwania, z jakimi muszą zmierzyć się dzisiaj przedsiębiorstwa: co zrobić z danymi, których nieustannie przybywa? Jak je przetwarzać i bezpiecznie składować? Co zrobić, by zagwarantować stały dostęp do danych i tym samym oferowanych usług? I wreszcie – jak to zrobić jak najniższym kosztem, bo danych będzie systematycznie przybywać? Aby ułatwić przedsiębiorstwom funkcjonowanie w cyfrowym świecie, Atman we współpracy z firmą doradczą Audytel przygotował analizę kosztów przechowywania danych. Mamy nadzieję, że będzie ona cenną wskazówką zarówno dla działów IT, jak i decydentów, pomagając w wyborze najlepszego modelu zarządzania danymi.
Cztery scenariusze
Jeśli jest coś, czego nie potrafimy zrobić wydajniej, taniej i lepiej niż konkurenci, nie ma sensu byśmy to robili i powinniśmy zatrudnić do wykonania tej pracy kogoś, kto zrobi to lepiej niż my – Henry Ford
Przedsiębiorstwa mają dziś do wyboru kilka modeli zarządzania danymi: każde z tych rozwiązań ma swoje wady i zalety. Przyjrzyjmy się poszczególnym scenariuszom:
Scenariusz 1. Firma decyduje się na budowę własnego centrum danych
Stworzenie od podstaw własnego centrum danych wydaje się idealnym rozwiązaniem. Po pierwsze zapewnia niezależność i pełną kontrolę nad środowiskiem operacyjnym. To firmowy dział IT decyduje o sposobach dostępu do centrum danych, metodach autoryzacji, kontroli, poziomie zabezpieczeń. Firma ma także wpływ na personel, który będzie zarządzała serwerownią, co daje poczucie pełnego (choć niekiedy złudnego) bezpieczeństwa. Jeśli warunki pozwalają na stworzenie centrum danych w bliskiej odległości od siedziby spółki, to firma dodatkowo zyskuje stały i w zasadzie nieograniczony dostęp do swoich serwerów.
Decyzja o inwestycji niesie jednak ze sobą wiele wyzwań związanych choćby z uzyskaniem pozwoleń, przydziałem mocy, zapewnieniem łączności telekomunikacyjnej. Zwykle okazuje się też, że szacowane koszty są wyższe od prognozowanych, bo firma, która nie posiada doświadczenia w budowaniu obiektów data center, nie uwzględnia na ogół wielu ukrytych kosztów. Warto pamiętać, że bardzo istotnym wyzwaniem, zwłaszcza dziś, jest też pozyskanie i utrzymanie odpowiedniej klasy specjalistów. Rynek IT jest bowiem niebywale konkurencyjny, zatrudnienie wykwalifikowanej kadry niesie ze sobą nie tylko wysokie koszty, ale także ryzyko jej fluktuacji, co może postawić pod znakiem zapytania poziom bezpieczeństwa centrum danych.
Największą wadą posiadania własnego centrum danych są oczywiście wysokie koszty jego budowy i utrzymania. Szacuje się, że budowa 1 mkw. data center generuje wydatki na poziomie 18-25 tys. zł. Warto pamiętać o tym, że im mniejszy metraż, tym koszt mkw. jest wyższy, a koszty planowania i uruchomienia, a następnie zarządzania centrum danych stanowią nawet 25% wszystkich wydatków.