Nowoczesne centrum danych -...

37
Nowoczesne centrum danych

Transcript of Nowoczesne centrum danych -...

Page 1: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

1

Nowoczesnecentrum danych

Page 3: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

3

Spis treści

Kolokacja rośnie w tempie dwucyfrowymPaweł Olszynka, PMR

Hybrydowa lokalizacja danych

Internet Rzeczy – nowe wyzwania dla centrów danych

Jak zwiększyć dynamikę biznesu dzięki współpracy z zewnętrznym centrum danych?

Transformacja z tradycyjnego IT do modelu ITaaSRafał Roszak, Beyond.pl

Oszczędności przede wszystkimAdam Dyszkiewicz, Fujitsu

Współczesny biznes prowadzi przez centra danychDariusz Wichniewicz, ATM

Realna twierdza wirtualnych danych – bezpieczeństwo data center

Jak polscy dostawcy podchodzą do umów powierzenia?Beata Marek, Cyberlaw.pl

36

36

37

37

Redaktor naczelny: Robert Jesionek

Współpraca redakcyjna: Barbara Mejssner

Projekt graficzny i skład: Monika Bucoń

Przeczytaj na portalu it-manager.pl

Jak spać spokojnie, czyli nieprzerwana dostępność danych krok po kroku

7 grzechów głównych systemów backupu

Centra danych zgodne z Rekomendacją D

Onet w chmurze

5

9

11

13

19

23

27

34

Page 4: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

Więcej niż dyskusja o IT

www.it-manager.pl/deloitte/cio-programme

© 2014 Deloitte Polska

Page 5: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

5

Kolokacja rośnie w tempie dwucyfrowym

Paweł Olszynka, PMR

Wielkość rynku

Według szacunków PMR opartych o analizę ponad

100 komercyjnych centrów danych i serwerowni

w Polsce, w ciągu ostatnich pięciu lat rynek

kolokacji więcej niż podwoił swoją wartość,

a stopa wzrostu wynosiła zawsze kilkanaście

procent rocznie i była relatywnie odporna

na czynniki makroekonomiczne.

Na polskim rynku widoczny jest wyraźny trend

wzrostu powierzchni dostępnej pod usługi

kolokacji i hostingu. W zasadzie każdego roku

do dyspozycji klientów oddawane jest 4-7 tys. m²

nowej powierzchni serwerowej. Zasoby polskiego

rynku według szacunków PMR i stanu na koniec

2013 r. wyniosły blisko 90 tys. m² w ujęciu

brutto. Powierzchnia ta obejmuje oprócz komór

i pomieszczeń stricte pod szafy rack, również

miejsce zajmowane przez systemy klimatyzacji,

UPS-y i całą infrastrukturę niezbędną do

funkcjonowania obiektów, jednak bez biur

i powierzchni zapasowych.

Sukcesywnie wzrasta w Polsce liczba obiektów

z profesjonalnie przygotowaną infrastrukturą,

o wysokim poziomie bezpieczeństwa i redundancji.

Warto przypomnieć, że pierwsze, większe centra

przetwarzania danych powstały w Polsce 15 lat

temu (np. CPD CK ZETO w 1999 r. lub centra

GTS-u w Piasecznie i HP w Sękocinie dwa lata

później), jednak bardziej dynamiczny rozwój

rynku połączony z wolumenem sprzedaży przekraczającym próg 100 mln zł w skali roku przyszedł dopiero kilka lat później. Kolejna fala inwestycji to lata 2009–2011, kiedy na rynku pojawiły się nowe obiekty, a także rozbudowane i zmodernizowane centra obecnych największych graczy (np. ATM).

Główne cechy i trendy

Rynek centrów danych w Polsce w ostatnich 3-4 latach doświadczył dynamicznych zmian i nadal podąża za trendami światowymi. Obecnie główne trendy i cechy krajowego rynku CPD to:

•nadalwczesnestadiumrozwoju–ryneknie jest tak nasycony jak w Europie Zachodniej, popyt na usługi dotyczy głównie większych firm; rynek rozwija się bardziej dynamicznie

•dużerozproszenierynku;nadalistniejeduża liczba małych serwerowni oferujących możliwość wynajmu kilku szaf rack lub niewielkiej przestrzeni do adaptacji na cele kolokacji

•narynkudziałająkrajowioperatorzy; poza TelecityGroup brak dużych inwestorów zagranicznych

•noweserwerowniepowstająwoparciu o aktualne standardy międzynarodowe; wydajność stała się głównym aspektem

Polski rynek usług kolokacyjnych, mimo stopniowego wzrostu konkurencji i spadków cen,

utrzymuje dwucyfrowe tempo wzrostu, pozwalając zarobić dostawcom usług. W zakresie

trendów technologicznych i optymalizacji polski rynek podąża za tendencjami światowymi.

Koncentracja obiektów nadal występuje w Warszawie, choć nie brakuje nowych inwestycji

w innych częściach kraju.

Page 6: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

6

branym pod uwagę – nakłady inwestycyjne

mogą być wyższe w przypadku zmniejszenia

kosztów operacyjnych, ważne są również niskie

prognozowane wydatki na infrastrukturę ICT

oraz wydajność zużycia energii

•skalowalnośćimożliwośćadaptacjiwprzyszłości

są celami branymi pod uwagę przy większości

projektów (w tym między innymi działka

umożliwiająca budowę kolejnego obiektu

w tej samej lokalizacji)

•przybywaobiektówneutralnychoperatorsko

•największaaktywnośćnarynkuwidoczna

jest w Warszawie, jednak powstaje coraz więcej

relatywnie dużych obiektów poza centrum kraju

•winwestycjewnowecentradanychwkraju

angażują się coraz wyraźniej parki technologiczne

i spółki zlokalizowane w specjalnych strefach

ekonomicznych na terenie całego kraju –

zachętą są wysokie dopłaty z funduszy UE

na realizację takich inwestycji

•sukcesywniespadającenykolokacji,choć

dotyczy to raczej mniejszych uczestników

rynku, bądź operatorów chcących podnieść

szybko poziom zajętości swoich obiektów

•pomimowiększejskłonnościdowykorzystania

usług oferowanych w centrach danych

i wzrostu popularności outsourcingu IT

duże przedsiębiorstwa nadal preferują

budowę serwerowni na własne potrzeby.

Źródło: PMR, 2014

Odsetek największych komercyjnych centrów przetwarzaniach danych w Polsce posiadających wybrane rozwiązania (%), styczeń 2014

N=25

Dedykowana ochrona fizyczna 24/7

Klimatyzacja precyzyjna

Podniesiona podłoga techniczna

CCTV

System gaszenia gazem

System wczesnego wykrywania dymu

0% 20% 40% 60% 80% 100%

88%

92%

92%

100%

100%

100%

Optymalizacja kosztów

Koszty energii elektrycznej generowane przez

systemy zasilania i chłodzenia są głównym

elementem składowym całkowitego kosztu

utrzymania centrum przetwarzania danych.

Aby zwiększyć sprawność energetyczną swoich

data centre, firmy modernizują je lub budują nowe,

wyposażając w bardziej nowoczesne rozwiązania.

Szczególnie najwięksi dostawcy kładą nacisk na

odpowiednio wysoki poziom sprawności zasilaczy

Page 7: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

7

UPS i przetwornic zapewniających zmniejszenie poboru energii. Dodatkowy element, który wykorzystują operatorzy, to systemy pozwalające na szczegółową analizę termiczną poszczególnych szaf w serwerowni, co pozwala na rozmieszczenie urządzeń w taki sposób, by zapewnić im uzyskanie optymalnych warunków chłodzenia.

Coraz powszechniejsze są systemy tzw. free coolingu, pozwalające na wykorzystanie w procesie chłodzenia temperatur panujących na zewnątrz serwerowni. Innymi słowy, free cooling pozwala na schłodzenie „wody lodowej” bez angażowania sprężarek chłodniczych. Oszczędności w tym przypadku mogą wahać się od 20 do nawet 75%. Warto podkreślić, że free cooling włącza się już przy temperaturze kilkunastu stopni powyżej zera, co w zasadzie pozwala na jego wykorzystanie – w mniejszym lub większym zakresie – niemalże

w ciągu całego roku. Doświadczenia operatorów pokazują, że w Polsce występuje przeciętnie 5-10 nocy rocznie (w porze letniej), kiedy wykorzystanie free coolingu nie jest w ogóle możliwe.

W polskich realiach, mimo przewidywań sprzed kilku lat, nie następuje natomiast dynamiczny wzrost skali gęstości upakowania serwerów, co przekładałoby się na zwiększenie poboru mocy pojedynczej szafy rack, choć niewielkie ruchy w tym zakresie są stopniowo zauważalne. Z naszych obserwacji w wizytowanych obiektach wynika, że o ile można w kraju znaleźć obiekty, gdzie faktyczny pobór mocy na wybrane szafy przekracza 12 kW, a maksymalny deklarowany osiąga nawet 25 kW, o tyle w praktyce przeciętny pobór mocy w obiektach jest kilkakrotnie niższy i waha się w okolicach 3-3,5 kW w przypadku obiektów mniejszych i 4-5 kW w przypadku obiektów większych. Czołowi operatorzy centrów danych najczęściej posiadają infrastrukturę, instalacje i elementy klimatyzacji precyzyjnej pozwalające na obsługiwanie większej gęstości na szafę, jednak faktycznie rzadko występuje taka konieczność. Wynika to z prostej kalkulacji, że schłodzenie szafy o wyższej gęstości zwykle wiąże się ze skokowo rosnącymi wymaganiami stawianymi systemom zasilania i chłodzenia, co wprost przekłada się na wyższe koszty, więc firmy rezygnują z tego rodzaju instalacji na rzecz mniejszej gęstości.

Struktura geograficzna

Znakomita większość komercyjnych serwerowni w Polsce to obiekty małe o powierzchni poniżej 200 m². Jeśli chodzi o największe obiekty, to w przypadku powierzchni netto w styczniu 2014 r. nie istniał w Polsce komercyjny obiekt, którego metraż pod szafy przekraczałby 4 000 m², a w przedziale 2 500-4 000 m² funkcjonowały – podobnie jak przed rokiem – trzy obiekty. W przypadku doliczenia do powierzchni pod same

Struktura geograficzna 25 największych komercyjnych centrów przetwarzania danych w Polsce, styczeń 2014

Warszawa14

Kraków4

Łódź3

Toruń2

Poznań2

Źródło: PMR, 2014

N=25

Page 8: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

8

Paweł Olszynka

([email protected])

Autor kieruje działem analiz rynku ICT w firmie PMR. Materiał zawiera dane z raportu PMR „Rynek centrów danych w Polsce 2014”, który powstał przede wszystkim w oparciu o bezpośredni kontakt z uczestnikami rynku i wizytacje ich obiektów data centrowych.

serwery również pomieszczeń towarzyszących okaże się, że obiektów o powierzchni ponad 4 000 m² jest cztery, podczas gdy tych w przedziale 2 500-4 000 m² – dziewięć.

Warszawa odpowiada za ponad połowę całkowitej komercyjnej powierzchni serwerowej w Polsce, a pozostałe dwie główne lokalizacje to Kraków (wraz z pobliską Skawiną) i Łódź. Te trzy miasta reprezentują ok. 80% rynku w Polsce. Niektórzy dostawcy, z którymi rozmawialiśmy, twierdzą, że proporcje są jeszcze wyższe, a 8 na 10 zapytań o usługi oferowane w komercyjnych centrach danych dotyczy Warszawy.

Analiza 25 lokalizacji wiodących obiektów potwierdza powyższy trend. Teoretycznie

wszyscy zgadzają się, że położenie geograficzne

obiektu w dzisiejszych czasach nie ma większego

znaczenia. Mimo wszystko, nadal dla większości

klientów zlokalizowanie zasobów w serwerowni

w innym mieście niż główna siedziba czy

oddział w Polsce nie jest powszechną praktyką.

Głównym argumentem przemawiającym

za wyborem serwerowni w innym mieście

jest najczęściej aspekt bezpieczeństwa i chęć

posiadania centrum zapasowego czy zasobów

serwerowych w alternatywnych lokalizacjach.

Z drugiej strony, inne lokalizacje powstają

nierzadko dzięki możliwości uzyskania

dofinansowania unijnego, które w obszarach

o największej koncentracji biznesu, dużo rzadziej

jest obecnie możliwe.

Page 9: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

9

Hybrydowa lokalizacja danych

W sierpniu 2014 na konferencjach w Sydney, Londynie i Dubaju, zorganizowanych przez firmę badawczą Gartner, dyskutowano o kwestiach związanych z bezpieczeństwem informacji i zarządzaniem ryzykiem. Analitycy Gartnera przedstawili swój pogląd na problem związany z fizyczną lokalizacją danych.

Chociaż fizyczna lokalizacja danych jest wciąż liczącą się kwestią, jednak według Gartnera, będzie ona stawała się coraz mniej istotna, gdyż jest coraz trudniejsza do zrealizowania. Do 2020 roku w większości organizacji trudno będzie określić lokalizację przetwarzanych i przechowywanych danych, gdyż będzie to kombinacją różnych typów lokalizacji: prawnych, politycznych i logicznych.

Według Carstena Caspera, wiceprezesa firmy badawczej Gartner, w ciągu ostatnich 12 miesięcy organizacje coraz częściej dyskutują na temat problemów związanych z lokalizacją i suwerennością danych. Przyczynkiem do tych dyskusji było ujawnienie przez Edwarda Snowdena informacji dotyczących inwigilacji Internetu przez NSA (National Security Agency). „Liderzy IT się wplątali w dyskusję na temat umiejscowienia danych na różnych poziomach i z różnymi interesariuszami, takimi jak doradcy prawni, klienci, specjaliści od tworzenia regulacji, przedstawiciele pracowników, zarządy i opinia publiczna” – mówił Casper. Zarządy wraz z działami IT muszą podejmować decyzje, gdzie i jak przechowywać dane i rozważać ryzyko związane z nieścisłościami prawnymi, karami finansowymi, ewentualnymi publicznymi skandalami, niezadowoleniem pracowników lub stratą udziałów w rynku z powodu braku innowacji, lub przekroczonych wydatków na IT.

Cztery typy lokalizacji danych

1. Lokalizacja fizyczna:

Fizyczna bliskość utożsamiana była zwykle

z fizyczną kontrolą nad danymi i ich

bezpieczeństwem. Chociaż każdy wie, że dane

lokalnie składowane mogą być dostępne zdalnie,

pragnienie fizycznej kontroli wciąż istnieje,

zwłaszcza wśród twórców regulacji prawnych.

Gartner radzi organizacjom nie odrzucać obaw

związanych z fizyczną lokalizacją, ale równoważyć

je wskazując inne typy ryzyka.

2. Lokalizacja prawna

Według Gartnera wielu profesjonalistów IT nie

jest zorientowanych w regulacjach prawnych,

dotyczących lokalizacji danych, a lokalizacja

prawna jest określona przez podmioty prawne,

które sprawują kontrolę nad danymi. Mogą to

być podmioty prawne, które przetwarzają dane

w imieniu tych pierwszych (jak np. dostawcy

Internetu) oraz podmioty prawne trzeciej strony,

które wspierają te drugie – np. centra danych

wynajęte w Indiach). „Twierdzenia w stylu:

utrzymywanie danych poza krajem jest nielegalne,

są często interpretacją języka prawnego, któremu

daleko do jasności” – mówi Casper. Każda

organizacja musi zdecydować, czy akceptuje

taką interpretację.

3. Lokalizacja polityczna

Takie czynniki jak egzekwowanie prawa, używanie

taniej siły roboczej w innych krajach, co osłabia

lokalny rynek pracy, czy pytania o politykę

międzynarodową są najważniejsze dla jednostek

Jeśli niemiecka firma podpisuje umowę na przechowywanie danych z irlandzkim oddziałem

amerykańskiego dostawcy chmury, który dane te będzie fizycznie składował w Indiach,

to gdzie one są i do kogo faktycznie należą?

Page 10: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

10

z sektora publicznego, organizacji pozarządowych oraz przedsiębiorstw, które obsługują miliony konsumentów lub których reputacja jest już nadwyrężona. „Jeżeli znajdujesz się w jednej z tych kategorii, musisz brać pod uwagę doniesienia mediów na temat bezpieczeństwa w trosce o przechowywane dane – powiedział Casper. Jeśli istnieje publiczne oburzenie dotyczące przechowywania danych za granicą, jest niewielkie prawdopodobieństwo, że klienci zmienią swoje nastawienie”.

4. Lokalizacja logiczna

Największy wpływ na przetwarzanie danych ma zwykle ten, kto ma do nich dostęp.

Na przykład: niemiecka firma podpisuje kontrakt z irlandzkim oddziałem amerykańskiego dostawcy chmury całkowicie ufając mu, że backup danych

będzie fizycznie przechowywany w data center

w Indiach. Chociaż więc prawna lokalizacja danych

jest w Irlandii, polityczna lokalizacja w USA,

fizyczna lokalizacja w Indiach, to logicznie dane

wciąż są w Niemczech. Z tych powodów wszystkie

dane przesyłane i wszystkie dane przechowywane

(w Indiach) powinny być zapobiegawczo

szyfrowane z kluczem do ich odszyfrowania

znajdującym się w Niemczech.

„Przyszłość lokalizacji danych będzie hybrydowa –

mówi Casper. – Organizacje będą używały

różnorodnych ich modeli, tak jak i różnorodnych

modeli dostarczania usług. Szefowie działów IT

muszą na ten temat rozmawiać i podejmować

decyzje dotyczące sposobu i miejsca

przechowywania danych na podstawie informacji

uzyskanych od zarządów, działów bezpieczeństwa

i specjalistów od ochrony danych”.

Opr. Barbara Mejssner na podstawie: „The Snowden Effect: Data Location Matters”, dostępny na witrynie Gartnera: http://www.gartner.com/doc/2724017

Page 11: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

11

Internet Rzeczy – nowe wyzwania dla centrów danych

Podczas szczytu „Infrastruktura i działanie

centrów danych”, zorganizowanego przez firmę

badawczą Gartner w Sydney, w maju 2014 roku,

dyskutowano między innymi o wpływie, jaki

Internet Rzeczy będzie miał na infrastrukturę

centrów danych i oferowane przez nie usługi.

Gartner prognozuje, że Internet Rzeczy będzie

do 2020 roku obejmował 26 mld różnego

typu urządzeń, a dostawcy produktów

i usług z nim związanych odnotują przychody

przekraczające 300 mld USD. Internet Rzeczy

spowoduje zmiany na rynku data centers,

związane z technologią, ale też z nowymi

modelami marketingowymi i sprzedażowymi.

„Urządzenia wchodzące w skład Internetu

Rzeczy wygenerują ogromną ilość danych,

które trzeba będzie przetwarzać i analizować

w czasie rzeczywistym – mówi Fabrizio

Biscotti, dyrektor badań w firmie Gartner.

Wzrost informacji przetwarzanych w data

center będzie je obciążać, stawiając przed nimi

nowe wyzwania w dziedzinie bezpieczeństwa,

wydolności sieci i analityki”.

Oto wyzwania, z jakimi według Gartnera zmierzą się centra danych w epoce Internetu Rzeczy:

Bezpieczeństwo

Wzrastająca cyfryzacja i automatyzacja coraz

większej liczby urządzeń rozmieszczonych

w różnych środowiskach stawia przed

organizacjami z wielu obszarów gospodarki

nowe wyzwania w zakresie bezpieczeństwa.

Przedsiębiorstwo

Ogromna ilość danych generowanych przez

miliony urządzeń drastycznie skomplikuje

kwestie bezpieczeństwa. Będzie to miało wpływ

na rosnące wymagania co do dostępności

informacji i prowadzenia procesów biznesowych

w czasie rzeczywistym.

Prywatność klienta

Tak jak to ma już miejsce w przypadku

inteligentnych urządzeń pomiarowych i coraz

bardziej zdygitalizowanych samochodów, olbrzymia

ilość przesyłanych danych będzie pochodziła

z urządzeń osobistych, które, jeśli nie będą należycie

chronione, mogą spowodować wzrost naruszeń

bezpieczeństwa. Jest to szczególne wyzwanie,

bo informacja generowana przez IR jest kluczem

do lepszych usług, warto więc, by mogły one

przypływać od klienta, bez narażania go na kłopoty.

Dane

Wpływ Internetu Rzeczy na magazynowanie

danych jest dwojaki, w zależności od tego,

jakie dane mają być składowane: dane osobowe

(generowane przez klienta), czy big data

(wytwarzane przez przedsiębiorstwa).

Jeśli używane przez konsumentów urządzenia

i aplikacje gromadzą wiedzę o ich zachowaniach,

to generują one bardzo istotne dane.

Zarządzanie przechowywaniem danych

Internet Rzeczy ma wpływ na infrastrukturę

do przechowywania danych, gdyż wiąże się

ze wzrostem wymagań wobec wydajności

Ilość danych generowanych przez Internet Rzeczy stawia przed centrami danych wyzwania

związane z bezpieczeństwem, przepustowością sieci, pojemnością pamięci masowych

i selektywnym backupem.

Page 12: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

12

pamięci masowych. Obecnie trzeba skupić się na możliwościach pojemności pamięci tak samo pilnie, jak nad tym, czy biznes może zbierać i używać danych IR w sposób efektywny kosztowo.

Technologie serwerowe

Wpływ Internetu Rzeczy na rynek serwerów będzie wynikał ze zwiększenia inwestycji w serwery w organizacjach, gdzie będzie on mógł przynieść korzyści i znaczącą wartość dodaną.

Data Center Network

Istniejące w centrach danych sieci WAN są dopasowane do wymagań dotyczących przepustowości sieci generowanych przez interakcje ludzi i aplikacji. IR zmienia ten model transferując ogromną ilość danych z małych sensorów do data center i dramatycznie zwiększając zapotrzebowanie na przepustowość pasma.

„Ogrom połączeń sieciowych i przyrost informacji związany z Internetem Rzeczy będzie przyspieszać rozwój centrów danych i jednocześnie wymagać od dostawców stosowania efektywnych platform do zarządzania danymi. Inernet Rzeczy to gigantyczna ilość danych przychodzących z różnych źródeł i różnych miejsc wspólnie zbieranych. Transfer wszystkich tych danych do pojedynczej lokalizacji w celu ich przetworzenia

nie będzie ani technologicznie wykonalny, ani ekonomicznie opłacalny – mówi Joe Skorupa, wiceprezes w Gartner Inc – Ostatnie trendy zmierzające do centralizacji aplikacji w celu redukcji kosztów i zwiększenia bezpieczeństwa nie są kompatybilne z Internetem Rzeczy. Organizacje będą musiały agregować dane w mniejszych data centers, gdzie będzie się dokonywać ich wstępne przetwarzanie. Istotne dane wyłowione z tej całości będą następnie przekazywane do centralnych data centers do dalszego przetwarzania”.

Ponadto, tworzenie kopii zapasowych tak wielkich wolumenów danych, będzie problemem trudnym do rozwiązania ze względu na różnorodność źródeł ich pochodzenia, ale także przepustowość sieci i pojemność pamięci masowych. Organizacje będą musiały robić selektywny backup danych, wybierać te, co do których mają przekonanie, że będą one dostarczały wartość dla biznesu. To przesiewanie i sortowanie będzie oczywiście generowało dodatkowe obciążenia w data center „zjadając” pamięć i zasoby sieci.

Wzrasta konieczność coraz lepszego zarządzania informacją. Operatorzy i dostawcy usług centrów danych będą musieli korzystać z zaawansowanych platform do zarządzania infrastrukturą data cneter (data center infrastructure management – DCIM).

Opr. Barbara Mejssner na podstawie: „The Impact of the Internet of Things on Data Centers”. Raport dostepny na stronie http://www.gartner.com/doc/2672920.

Page 13: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

13

Jak zwiększyć dynamikę biznesu dzięki współpracy z zewnętrznym centrum danych? Transformacja z tradycyjnego IT do modelu ITaaS

Rafał Roszak, Beyond.pl

Firmy stawiają na usługi data center

Zmiany na rynku serwerów pokrywają się ze stałym

i dynamicznym wzrostem wykorzystania usług data

center. Badania BroadGroup za 2014 r. wskazują

na szybki rozwój globalnego rynku poza ośrodkami

Tier1 (US, UK, Europa Zachodnia) ze szczególnym

naciskiem na dostawców w Polsce, Rosji i Turcji.

Wśród tych krajów Polska wyróżnia się największą

dynamiką i potencjałem. Za utrzymaniem tego

trendu przemawia wiele czynników, wśród których

wymienić można m.in.: rozwój innowacyjnej

i opartej o nowoczesne technologie gospodarki,

dynamiczny wzrost MŚP oraz poszukiwanie nowych

zakresów usług, wykorzystujących urządzenia

mobilne, w tym przede wszystkim trend BYOD

i Internet of Things. Dodatkowo zaintersowanie

outsroucingiem usług infrastruktury IT wspomaga

dążenie przedsiębiorstw do optymalizacji kosztów

działania, wsparte przez rozpowszechnienie

szerokopasmowego dostępu do Sieci, globalizację

działań i wzrost kompetencji pracowników.

Szybkość reagowania na zmiany, innowacyjny

rozwój technologiczny i nieustanna optymalizacja

środowiska IT, to obecnie jedyna droga do osiągnięcia sukcesu, bez względu na branżę, w której działa przedsiębiorstwo. W efekcie dynamicznego wzrostu wykorzystania nowych technologii firmy stają przed pytaniem „Jak zapewnić sobie przestrzeń czy moc obliczeniową dla utrzymania i przetwarzania danych?”. Coraz częściej popartą rachunkiem zysków i kosztów odpowiedzią jest współpraca z profesjonalnym data center. W rezultacie polski rynek centrum danych od kilku lat sukcesywnie rośnie. Jak wynika z raportu firmy badawczej PMR, w ubiegłym roku (2013) wartość polskiego rynku data center przekroczyła 1 mld zł. Wzrost popytu pociąga za sobą powstawanie kolejnych inwestycji i – co najważniejsze z punktu widzenia klienta – rozwój oferty usług.

Wszystkie te elementy wpływają na zwiększenie wykorzystywania nowoczesnych technologii, tworzenie, przetwarzanie i przechowywanie danych i w konsekwencji wzrost podaży na usługi data center. Idzie ono w parze z rozwojem nowego modelu dostarczania moc obliczeniowej jakim jest cloud computing. Chmura obliczeniowa – zarówno

Prognozy producentów sprzętu IT przygotowane na 2014 r. wskazywały, że do 30% wszystkich

fizycznych serwerów zostanie zamówione przez centra danych i dostawców usług w chmurze

obliczeniowej. Do roku 2017 firmy z sektora data center i cloud computing mają stanowić połowę

rynku nabywców sprzętu. Tymczasem CIO i CTO firm skierują swoją uwagę w kierunku modelu ITaaS.

Jakie korzyści daje taka zmiana? Jak przygotować do niej swoją firmę? Czym kierować się podczas

wyboru Partnera i zleceniobiorcy?

Page 14: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

14

w modelu Infrastructure as a Service jak i Platform as a Service i Software as a Service – jest najszybciej rozwijającym się sektorem branży IT. Polski rynek w tym zakresie w 2012 roku wart był ponad 216 mln zł a prognozy na 2014 mówiły o wzroście w całym bieżącym roku o 26,4 procent, czyli do poziomu około 260 mln zł.

Przy tak oczywistym trendzie warto przenalizować czynniki, które skłaniają firmy do korzystania z zewnętrznych centrów danych.

Za wzrostem zainteresowania zewnętrznym centrum danych przemawiają biznesowe atuty takiego rozwiązania.

Ankieta przeprowadzona wśród CEO i CIO przez dziennik Wall Street Journal w czerwcu 2014 r. wskazuje, że w ponad 60% amerykańskich przedsiębiorstw zarządzanie infrastrukturą IT i administracja systemami jest najczęściej outsourcowną aktywnością.

W efekcie, firmy które zdecydowały się na wdrożenie tego modelu działania odnotowują średnioroczne oszczędności na poziomie 12-17%, a 37% z pośród nich deklaruje, iż uwolnienie zasobów dzięki outsourcingowi pozwoliło na szybszy rozwój nowych produktów i ekspansję zagraniczną.

Najważniejsze wskazywane przez ankietowanych zalety wykorzystania zewnętrznego centrum danych to:

•optymalizacjakosztów

•zwiększeniezwinnościdziałuIT

•zmianakosztówinwestycyjnychnaoperacyjne

•zwiększeniebezpieczeństwaistabilności zasobów IT

•zwiększeniezwinnościdziałuIT

•koncentracjanacelachstrategicznychfirmy

•rozwójknowhowidostępdonajnowszej technologii.

Decydując się na zewnętrzne centrum danych warto zweryfikować dostępne oferty i postawić na współpracę z najlepszym partnerem. Jakimi kryteriami się posłużyć?

1. Neutralność telekomunikacyjna

Pierwsze co należy zweryfikować, to czy data center

jest neutralne telekomunikacyjnie. Takie centra

danych zapewniają biznesowe bezpieczeństwo

wynikające z braku „preferowanego” operatora.

Dysponując rozbudowaną ofertą łączy gwarantują

technologiczne zasoby pozwalające na swobodny

dostęp do Internetu. Ważna jest też kwestia

przyłączy – by sięgnąć do przykładu Beyond.pl

Data Center 1, pierwszego polskiego neutralnego

telekomunikacyjnie centrum danych – przyłącza

poprowadzone są z czterech różnych stron

budynku. To eliminuje ryzyko utraty łączności

w wypadkach losowych czy – obecnej

w branżowych anegdotach – koparki.

2. Rozbudowany i zduplikowany system zabezpieczeń

W profesjonalnym centrum danych stabilność

i bezpieczeństwo utrzymania infrastruktury IT

zabezpiecza się poprzez eliminacje Pojedynczych

Punktów Krytycznych (Single Point of Failrure –

SpoF). Gwarantują to wdrożone rozwiązania

w zakresie czterech filarów bezpieczeństwa:

•bezpieczeństwofizyczne

•bezpieczeństwoprzeciwpożarowe

•bezpieczeństwośrodowiska

•bezpieczeństwozasilania.

Powyższe elementy, zapewniające stabilność

przechowywania i przetwarzania danych dla

poszczególnych elementów infrastruktury, najlepiej

przeanalizować na przykładzie centrum danych

Beyond.pl z Poznania, który od 2005 r. zapewnia

usługi data center swoim klientom.

Page 15: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

15

O bezpieczeństwo obiektu dba wielostrefowa

kontrola dostępu wraz z biometryką, sprawdzającą

zgodność podanego kodu dostępu. Dochodzi

do tego system wykrywania otwartych drzwi,

monitoring CCTV i systemy monitoringu,

nad którymi czuwają całodobowo dwa niezależne

zespoły utrzymania (infrastruktura i technologia)

oraz licencjonowana firma ochrony.

Bezpieczeństwo przeciwpożarowe zapewnia

innowacyjny system wczesnej detekcji VESDA

sprzężony z systemem monitoringu termowizyjnego.

Centralny analizator bada, a przeciwdziałać

ewentualnym ogniskom zapalnym ma system

tłumienia ognia dwustrefowo – pod i nad

podłogą techniczną – wraz z instalacją

gaszącą certyfikowaną do użytku w UE,

opartą na gazie obojętnym i dedykowaną

do użytku w pomieszczeniach z wrażliwym

sprzętem elektronicznym.

Bezpieczeństwo środowiska – kluczowe

dla wrażliwego sprzętu IT jaki znajduje się

w ramach centrum danych – to wysokowydajny

system klimatyzacji precyzyjnej wraz z dwoma

niezależnymi torami wytwarzania i dystrybucji

chłodu. Za ich utrzymanie odpowiadają dwa

niezależne zestawy agregatów chłodniczych

wraz z zapasowym systemem chłodzącym.

Całość podlega stałemu monitoringowi i kontroli

dystrybucji chłodu oraz temperatury i wilgotności.

Dodatkowo, w ramach poszczególnych

pomieszczeń serwerowych wytyczone są ciepłe

i zimne korytarze, cyklicznie kontrolowane

kamerami termowizyjnymi.

Last but not least, system bezpieczeństwa

zasilania, za który odpowiadją systemy dostawy

zasilania, czyli dwa niezależne przyłącza

energetyczne, ponad 20 ton cyklicznie

testowanych i wymienianych akumulatorów

dedykowanych do użycia w środowisku

data center, dwie niezależne rozdzielnie

z dedykowanymi systemami UPS oraz niezależne

trasy kablowe oraz listwy zasilające.

Istotnym ogniwem tego systemu jest

profesjonalny agregat prądotwórczy zlokalizowany

w dedykowanym pomieszczeniu. Stałą pracę

zapewniają mu zbiorniki paliwa z zapasem

na 36h wraz z możliwość tankowania

z zewnętrznych cystern w czasie pracy.

Wszystkie powyższe rozwiązania systemu,

zapewniające bezpieczeństwo zasilania,

podlegają całodobowemu monitoringowi

i cyklicznym procedurom testowania.

3. Pod ciągłą kontrolą

Elementem spinającym to wszystko jest

wielowarstwowa ochrona fizyczna. Dość

powiedzieć, iż nowoczesne centra danych,

nie bez kozery nazywane są informatycznymi

bunkrami. Profesjonalny obiekt cechuje nie

tylko stała ochrona fizyczna ale i obecność

ekip technicznych. 24 godziny na dobę, 7 dni

w tygodniu, 365 dni w roku na terenie centrum

danych przebywa licencjonowana straż obiektu,

zespół administratorów monitorujący pracę

infrastruktury IT oraz zespoły techniczne,

gotowe by przeprowadzić zarówno prace zlecone

przez klientów (tzw. remote hands) jak i prace

związane z utrzymaniem infrastruktury samego

centrum danych.

Profesjonalne centra danych to pełne portfolio usług, z których korzystać może przedsiębiorstwo

Obecnie data center nie ograniczają się jedynie do

wynajmu powierzchni dla utrzymania sprzętu IT.

Przykładem tego jest choćby poznańskie centrum

danych Beyond.pl, które łączy bezpieczne

zaplecze technologiczne, szerokie portfolio

kompetencji zespołu i najnowsze oprogramowanie

w harmonijną całość. Wspiera ją neutralność

Page 16: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

16

telekomunikacyjna zapewniająca doskonałą łączność globalną i korzystną ofertę biznesową.

Efektem jest szeroki wachlarz oferty, która pozwala dopasować rozwiązanie do potrzeb klienta. Dzięki temu z oferty centrum danych skorzystać mogą firmy, które szukają zarówno oferty kolokacji, dzierżawy sprzętu, usług cloud computingu, jak i administracji systemami, aplikacjami i bazami danych.

Chmura obliczeniowa jako usługa centrum danych

Coraz większe znaczenie nabierają w ofercie data center usługi chmury obliczeniowej, zarówno w modelu chmury prywatnej jak i publicznej. Zmiana modelu IT to również wzrost oczekiwań co do możliwość centrów danych – wiele z obecnych ośrodków nie jest dostosowana do dynamicznego wzrostu liczby wirtualnych maszyn tworzonych na fizycznych zasobach, gdyż wymaga to odpowiedniej gęstości zasilania i warunków klimatycznych oraz przede wszystkim – wsparcia administracyjnego i zarządczego, koniecznego dla świadczenia odpowiedniego poziomu usług. Wiąże się to, po stronie centrów danych, z koniecznością zarówno własnych narzędzi, jak i wyzwaniami HR oraz zmianą strategii firmy. Zmiana jest jednak nieuchronna – nowy model dostarczenia mocy obliczeniowej jakim jest cloud computing na trwałe wpisał się już w rozwiązania rynkowe. Jak podaje wyniki badań przeprowadzonych przez Idea Bank i TaxCare, dwie trzecie ankietowanych firm wskazuje chmurę jako źródło obniżenia kosztów funkcjonowania przedsiębiorstwa. Jednocześnie według Komisji Europejskiej przyjęcie tego modelu działania zapewnia redukcję kosztów prowadzenia działalności średnio o 10-20%.

Zmiany na rynku usług IT jakie generuje chmura obliczeniowa najlepiej pokazuje case Centralnej Agencji Wywiadowczej. Latem 2012 ta rządowa

agencja ogłosiła przetarg na nową infrastrukturę, w którym pokonała IBM i w marcu 2013 r. podpisała warty 600 mln $ kontrakt na 10 lat. Wybór wzbudził wiele pytań, należy go jednak posumować jednoznacznie: zwyciężył model rzeczywistej elastyczności i optymalizacji kosztów.

Za wzrostem zainteresowania usługą mocy obliczeniowej przemawiają biznesowe atuty takiego rozwiązania. Serwery w chmurze dostarczanej przez profesjonalne centrum danych to przede wszystkim optymalizacja kosztów działania firmy. Przedsiębiorstwo nie musi utrzymywać własnej infrastruktury, nabywać jej, serwisować i wymieniać wraz z rozwojem technologii. Kolejna korzyść to znacznie większa szybkość wdrożenia (time to market). Dzięki zasobom centrum danych dostawca chmury obliczeniowej może udostępnić dowolna liczbę serwerów i platform na żądanie. Na konkurencyjnym rynku gospodarczym, taka elastyczność zasobów IT to strategiczna przewaga, umożliwiającą szybsze wdrożenie nowej usługi, zmian w portfolio produktów czy błyskawiczną reakcję marketingową na czynniki zewnętrzne.

Ogromną przewagą serwerów w chmurze w stosunku do tradycyjnej infrastruktury fizycznej jest również możliwość skalowania wykorzystywanej mocy. Zwalnia to firmy z konieczności estymowania koniecznej infrastruktury i pozwala na dokładne dopasowanie mocy obliczeniowej do potrzeb.

Prywatna, publiczna czy hybrydowa? Profesjonalne data center dopasowują ofertę dla potrzeb odbiorcy

Wybierając chmurę obliczeniową w profesjonalnym centrum danych, przedsiębiorstwo korzysta z możliwości wyboru rozwiązania, które będzie optymalnie dopasowane do jego potrzeb. Coraz popularniejszym rozwiązaniem jest wybór

Page 17: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

17

infrastruktury hybrydowej, łączącej zalety elastyczności i skalowalność chmury publicznej z bezpieczeństwem i dedykowanymi zasobami chmury prywatnej. Ten optymalny dla rozległych systemów czy ściśle regulowanych sektorów jak finanse, ubezpieczenia czy medycyna model przynosi wiele korzyści ale wymaga starannego wyboru Partnera. Sprawdzając jego kompetencje należy bowiem zweryfikować nie tylko kwestie infrastruktury własnego data center, ale i technologii umożliwiających uruchomienie infrastruktury na żądanie w postaci serwerów

w chmurze i zaprojektowanie architektury łączącej oba te klastry.

Kolejne case studies wdrożeń chmury obliczeniowej i upowszechnienie tej usługi w ofercie centrum danych na polskim rynku wskazują na jej postępujący wzrost znaczenia. Trend ten przekłada się na wyniki całej branży, stąd nie jest zaskoczeniem wynik globalnych badań, które wskazują, że zainteresowanie chmurą obliczeniową jako modele infrastruktury wśród CIO wzrosło z 30% w roku 2009 do 64% w roku obecnym.

BEZPIECZNE I STABILNE CENTRA DANYCH

Centra danych Beyond.pl wyróżnia:

•wykluczeniePojedynczegoPunktuKrytycznego

•bezpieczeństwoipewnośćeksploatacjizgodneznajwyższymistandardami i potwierdzone wysokim SLA

•bezpieczeństwozasilania,chłodzeniaikontroliśrodowiskaorazinnowacyjnesystemy przeciwpożarowe dedykowane dla zastosowania w środowisku IT

Lider usług chmury obliczeniowej dla biznesu

•chmuraprywatnaBeyond.pl:infrastrukturadedykowana,opartaowybranątechnologię

•chmurapublicznae24cloud–zasobyITnażądanie,rozproszonegeograficznie i dowolnie skalowane

•chmurahybrydowa–połączeniezaletinfrastrukturydedykowanejzelastycznością chmury publicznej

Page 18: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

18

Rafał Roszak

Dyrektor marketingu Beyond.pl

Od ponad 15 lat związany z kształtowaniem marek, komunikacją i rynkiem usług.

Absolwent UAM Poznań i studiów „Design Managment” SWPS. Członek American Marketing Association. Twórca i redaktor bloga chmura.pb.pl poświęconego biznesowej perspektywie chmur obliczeniowych, szkoleniowiec, wykładowca uczelni wyższych. Pasjonuje się design management i service design, w usługach IT poszukuje korzyści dla strategii rozwoju firmy i wartości z perspektywy klienta.

Doskonała łączność

Beyond.pl to pierwsze polskie neutralne telekomunikacyjnie centrum danych:

•operatorzyklasymiędzynarodowejTier1:Cogent,Level3,RETN,TeliaSonera

•wszyscykluczowioperatorzykrajowiiregionalni:Netia,Orange(TPSA),T-Mobile,Atman

•możliwośćpołączeniadogłównychwęzłówtelekomunikacyjnych:AMS-IX,DE-CIX,EPIX, KIX,LINX,MSK-IX,NetIX,

Page 19: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

19

Oszczędności przede wszystkim

Adam Dyszkiewicz, Fujitsu

Gdzie szukać oszczędności? Wymiana starszych

maszyn i wirtualizacja systemów na nich

działających może przynieść znaczące oszczędności

w zakresie obsługi serwisowej, zużycia energii

elektrycznej i zajętości miejsca w serwerowni.

Ekonomiczne i wydajne

Nowe serwery Fujitsu PRIMERGY są bardziej

energooszczędne i pozwalają nawet o 50%

zmniejszyć koszty związane z chłodzeniem

i zasilaniem względem poprzedniej generacji

tych maszyn. Tymczasem np. eksperci Gartnera

przewidują, że za kilka lat koszty energii będą

pochłaniać nawet 1/2 całkowitych budżetów IT firm

średniej i dużej wielkości. Jednocześnie kilkuletnie

serwery oferują ułamek mocy i wydajności

obecnych konstrukcji PRIMERGY z procesorami Intel

XeonE52600v3.Nadodatkoweoszczędności

pozwalają m.in. rozwiązania do zarządzania Fujitsu

ServerView, które poprzez kartę zarządzającą

Fujitsu iRMC (standard dla wszystkich serwerów

rack i blade Fujitsu) umożliwiają monitorowanie

zużycia energii pojedynczych serwerów, jak i ich

grup (np. całych szaf rack) w czasie rzeczywistym.

Dzięki temu narzędziu możemy weryfikować

bieżącą utylizację serwerów i na tej podstawie

kreować optymalne polityki zasilania. Przykładowo

serwery, które są nisko zutylizowane w godzinach

nocnych, mogą mieć automatycznie ograniczaną

wydajność w celu dodatkowej oszczędności energii

lub być całkowicie wyłączane w czasie, kiedy nie

sąużywane.NajnowszeserwerybladeFujitsuBX

dynamicznie równoważą obciążenie zestawów

zasilaczy, tak aby całkowita sprawność energetyczna

obudowy blade była jak najwyższa, dodatkowo

każdy wentylator redundantnego układu chłodzenia

obudowy serwerów kasetowych jest sterowany

indywidualnie, dynamicznie dostosowując się

do utylizacji środowiska serwerowego.

Mniejsze koszty utrzymania centrum danych

to także efekt możliwy do uzyskania przy inwestycji

w nowoczesne pamięci masowe. Istotnym

kosztem w data center, o którym należy pamiętać

jest miejsce i jego efektywne wykorzystanie.

Dzięki półkom dyskowym o upakowaniu nawet

do 60 dysków HDD 3,5” w przestrzeni 4U oraz

dzięki możliwości skalowania wydajności przez

użycie technologii Flash i SSD, a nie tylko przez

rozbudowę dyskami HDD, rodzina macierzy Fujitsu

ETERNUS uzyskuje lepsze wskaźniki wykorzystania

powierzchni. Najnowsza generacja tych urządzeń

pozwala na obsługę mieszanej instalacji dysków

HDD formatu 2,5” i 3,5”, a także obsługę

blokowego i plikowego dostępu do danych

bez tracenia kolejnej przestrzeni w serwerowni,

co jest unikalną funkcjonalnością.

Dodatkowym efektem konsolidacji, szczególnie

w przypadku zastosowania serwerów kasetowych, jest

znaczące uproszczenie zarządzania środowiskiem IT.

W przypadku serwerów kasetowych, całością

środowiska serwery–przełączniki–pamięć masowa

możemy zarządzać z jednej konsoli.

Prosta droga do konsolidacji

Chęć ograniczenia opłat za elektryczność nie

musi jednak oznaczać konieczności poszukiwania

kompromisu między mocą obliczeniową,

a zapotrzebowaniem na energię elektryczną.

Optymalizacja wydatków na rozwiązania IT nie omija kosztów utrzymania data center.

Koszty te w dużej mierze uzależnione są od odpowiedniej utylizacji i wysokiej efektywności

energetycznej posiadanej infrastruktury IT.

Page 20: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

20

Jedna maszyna Fujitsu PRIMERGY najnowszej generacji może bowiem z powodzeniem zastąpić kilka fizycznych serwerów starszej generacji, przy jednoczesnym ograniczeniu kosztów zasilania, chłodzenia i obsługi. Za sprawą wirtualizacji taka konfiguracja może okazać się nawet bardziej wydajna i zapewniać wyższą dostępność dla aplikacji. Rodzina serwerów kasetowych PRIMERGY BX to odpowiedź na potrzeby średnich i dużych organizacji poszukujących wydajnego i efektywnego rozwiązania do konsolidacji zasobów IT. Najnowsza generacja serwerów kasetowych z rodziny BX900 zapewnia wysoką wydajność, dostępność i skalowalność, potrzebne w dużych organizacjach. Z kolei zastosowanie rozwiązań blade zaprojektowanych dla sektora SMB (PRIMERGY BX400) łączy wydajność i niezawodność systemu BX900 z łatwością obsługi, wszechstronnością i kompaktowymi rozmiarami, niezbędnymi z punktu widzenia mniejszych przedsiębiorstw. Cechą charakterystyczną serwerów z rodziny PRIMERGY jest możliwość znacznego skrócenia czasu wdrożenia. Szybkiemu wdrożeniu i dopasowaniu do indywidualnych potrzeb sprzyja unikatowy model produkcji i dostaw rozwiązań Fujitsu. Nawet w przypadku jednostkowych zamówień poszczególne maszyny są poddawane rozbudowanym testom i mogą być dostarczane w postaci skonfigurowanej i gotowej do uruchomienia. Rozwiązania Fujitsu dostarczane w szafach rack są standardowo w pełni prekonfigurowane, włącznie z połączeniami I/O i zasilaniem, co dodatkowo skraca czas i koszt wdrożenia oraz eliminuje np. ryzyko błędów podczas instalacji.

Konstrukcja zoptymalizowana pod kątem zużycia energii

Same konstrukcje serwerów też znacząco ewoluują. Elementy takie, jak zarządzalne moduły chłodzenia czy płyty główne i obudowy są optymalizowane

przez Fujitsu pod kątem zużycia energii na etapie projektowania. Gwarantują dzięki temu większą sprawność odprowadzania ciepła przy mniejszym zapotrzebowaniu na energię. Standardem dla serwerów PRIMERGY są zasilacze Hot Plug o sprawności co najmniej 94%, a opcjonalnie dostarczane są zasilacze o sprawności nawet 96%. Warto zwrócić uwagę, że obecnie wiele konkurencyjnych konstrukcji nadal nie oferuje takich parametrów lub oferuje tego typu komponenty jedynie za dodatkową opłatą.

W przypadku macierzy dyskowych ETERNUS DX wszystkich generacji istnieje możliwość zainstalowania dysków o niższym zużyciu energii: SSD lub HDD 2,5”. Przykładowo wymiana dysków 3,5” na dyski 2,5” o identycznych parametrach wydajnościowych pozwala zaoszczędzić nawet 50% energii zużywanej przez macierz. Coraz częściej stosowanym rozwiązaniem jest też zastępowanie klasycznych dysków talerzowych technologią SSD. Ceny tego typu pamięci stale się zmniejszają, a ich oferowana wydajność jest od kilkuset do nawet kilku tysięcy razy większa od pojedynczego dysku talerzowego! Takie rozwiązanie w wielu sytuacjach może się też okazać tańsze w zakupie zapewniając równocześnie znacznie wyższą wydajność rozwiązania. Dyski SSD pozwalają również budować dużo wydajniejsze konfiguracje macierzowe przy minimalnej zajętości miejsca w szafach rack naszej serwerowni. Macierze ETERNUS DX zostały zaprojektowane z naciskiem na ograniczenie kosztów wynikających z okresowych przeglądów lub wymiany krytycznych podzespołów. Dlatego np. we wszystkich modelach Fujitsu zastąpiło kłopotliwe w eksploatacji akumulatory kondensatorami o wysokiej pojemności. Kondensatory te podtrzymują zasilanie modułu kontrolerów tylko na czas przepisania zawartości pamięci cache na dedykowany nośnik nieulotny. Zastosowanie kondensatorów eliminuje też efekt spadku wydajności, jeśli awaria zasilania jest długotrwała – przy stosowaniu akumulatorów po przywróceniu zasilania muszą one osiągnąć

Page 21: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

21

określony poziom naładowania, aby ponownie zabezpieczyć pamięć cache. Do tego czasu kontrolery macierzy pracują w mniej wydajnym trybie. Dodatkowo w macierzach korzystających z akumulatorów zazwyczaj konieczna jest ich wymiana maksimum co 2-3 lata. Kolejną ciekawą funkcjonalnością jest MAID (Massive Array of Idle Disks) – jest mechanizm redukujący zużycie energii w okresach niskiego zapotrzebowania na wydajność – pozwala zredukować prędkości obrotowej dysków HDD, aż do ich całkowitego zatrzymania.

Jednocześnie dzięki użyciu unikatowej technologii Cool-safe Advanced Thermal Design możliwa jest bezpieczna i jeszcze bardziej ekonomiczna praca serwerów, pamięci masowych i wyselekcjonowanej infrastruktury sieciowej w wyższej temperaturze otoczenia. Dzięki temu możemy bezpiecznie podnieść temperaturę w serwerowni, redukując znacząco koszty klimatyzacji.

Energooszczędne data center

Jak daleko mogą sięgać oszczędności w utrzymaniu data center w praktyce? Ciekawym przykładem jest nowa serwerownia Yahoo!, zbudowana przez Fujitsu.

Yahoo! jest obecnie jednym z największych serwisów internetowych w Japonii. Spółka uruchomiła niedawno nowy, wysoko energooszczędny ośrodek obliczeniowy, wykorzystujący technologie Fujitsu.

Zupełnie nowe podejście do zasilania serwerów

Zbudowane przez Fujitsu, fabrycznie prekonfigurowane data center jest oparte na jednakowych serwerach – specjalnie zmodyfikowanych wersjach dwuprocesorowych maszyn PRIMERGY RX200.

Jedną z modyfikacji jest specjalnie zaprojektowany, zintegrowany system podtrzymania awaryjnego BBU (Integrated Battery Backup Unit). W typowej serwerowni każda z maszyn jest wyposażona w redundantne moduły zasilania i dedykowane systemy zasilania awaryjnego (UPS). Komponenty te wpływają na całkowitą sprawność energetyczną data center. W serwerowni zaprojektowanej dla Yahoo! przez Fujitsu zrezygnowano z tych elementów – każdy z serwerów posiada wbudowaną dedykowaną baterię, podtrzymującą pracę urządzenia przez czas rozsądny z punktu widzenia SLA usług. Użyte w projekcie serwery Fujitsu PRIMERGY RX200 korzystają z najnowszych procesorów Intel Xeon o niskim poborze mocy. Dodatkowo interfejs zarządzający serwerem (Fujitsu iRMC) jest skonfigurowany tak, aby dynamicznie zmniejszać wydajność maszyny i maksymalnie zwalniać szybkość rotacji wiatraków chłodzących, kiedy serwer nie jest obciążony, co pozwala dodatkowo zredukować zużycie energii elektrycznej. Dzięki eliminacji zbędnych komponentów i optymalizacji zużycia energii serwerów nowe data center Yahoo! jest chłodzone powietrzem atmosferycznym – wyeliminowano drogie i energochłonne układy klimatyzacji. Oszczędność energii elektrycznej w zaprojektowanym przez Fujitsu centrum danych sięga 60%.

Dążenie do ideału, czyli zasilanie tylko sprzętu IT

Branża data center mierzy efektywność zużycia energii w serwerowniach specjalnym współczynnikiem PUE (Power Usage Effectiveness). Dla przykładu wartość 2,0 dla współczynnika PUE oznacza, że na każdy 1 wat energii zużytej do zasilenia serwera zużywany jest dodatkowo 1 wat na dystrybucję energii, chłodzenie, podtrzymanie środowiska IT. Im współczynnik PUE jest bliższy wartości 1,0, tym więcej energii elektrycznej jest w praktyce zużywane tylko na moc obliczeniową data center i tym bardziej energooszczędna jest serwerownia.

Page 22: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

22

Dzięki zastosowanym modyfikacjom i optymalizacjom współczynnik PUE dla serwerowni Yahoo! stworzonej przez Fujitsu wynosi zaledwie 1,044. Wartość ta oznacza, że w praktyce w centrum danych Yahoo! prąd

zużywa jedynie sprzęt IT, a znikomy pobór mocy dotyczy innych urządzeń, takich jak wentylatory czy systemy dystrybucji energii. Yahoo! Japan planuje uruchomienie kolejnych data center tego typu wspólnie z Fujitsu.

Adam Dyszkiewicz

Senior Product Manager – Enterprise Products w firmie Fujitsu

Od początku kariery zawodowej związany z branżą IT. Od ośmiu lat zajmuje stanowiska managerskie związane z zarządzaniem liniami produktowymi. Od 2009 roku jest odpowiedzialny za portfolio serwerów x86 i rozwój biznesu serwerowego Fujitsu w Polsce, a obecnie dodatkowo za rozwój biznesu Storage Fujitsu. Zajmuje się m.in. aktywnościami w obszarze marketingu i PR, bezpośrednim wsparciem sprzedaży, szkoleniami dla partnerów i klientów. Adam Dyszkiewicz ukończył studia na kierunku informatyka na Politechnice Warszawskiej oraz jest absolwentem Szkoły Głównej Handlowej.

Page 23: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

23

Współczesny biznes prowadzi przez centra danych

Dariusz Wichniewicz, ATM

Biznes dostrzegł wymierne korzyści z wirtualizacji swojej działalności i błyskawicznie pęczniejącej lawiny danych nie sposób już zatrzymać. Rośnie liczba urządzeń mobilnych oraz informacji przesyłanych przy ich użyciu. Dynamicznie rozwija się technologia LTE, dzięki czemu na popularności zyskują wysokiej jakości transmisje wideo. Przybywa zarówno firm i klientów w sektorze e-commerce, jak i użytkowników mediów i gier społecznościowych.

Centrum centrum nierówne

Wspomniane fakty uwiarygadniają prognozy mówiące, że do 2020 r. cyfrowy wszechświat powinien ważyć ponad 40 bilionów gigabajtów. To dziesięciokrotnie więcej niż dziś. Co się jednak wydarzy, jeśli dostęp do choćby części informacji zostanie przerwany? Dość wyobrazić sobie awarie powodujące blokadę dostępu do zasobów informacyjnych przedsiębiorstw lub utratę danych klientów. Skutkiem jest paraliż działania firmy, a wraz z nim utrata prestiżu i przychodów przedsiębiorstwa.

Firmy i instytucje publiczne oczywiście nie przeceniają cyfrowego wszechświata, ale rozumieją, że zapisane w elektronicznej formie dokumenty wymagają bezpiecznego miejsca przechowywania i profesjonalnej ochrony. Potwierdzeniem wzrostu świadomości polskiego rynku jest utrzymująca się na poziomie 15-20 proc. rocznie dynamika popytu na usługi centrów danych. Ten trend nie powinien się

zmienić w przyszłości, coraz częściej bowiem ścieżki biznesu będą wiodły przez centra danych. Tak jest bezpieczniej i ekonomiczniej.

Już choćby z tego względu warto przyjrzeć się rynkowej ofercie i sprawdzić, które obiekty są nowoczesne i utrzymują najwyższe standardy. Powód jest prosty: centra danych są różne, a o bezpieczeństwie bardzo często decydują niewidoczne dla oka detale. Warto sprawdzać referencje dostawców i wybierać wypróbowanych, z doświadczeniem w zarządzaniu centrami danych. Cenna jest także możliwość obejrzenia centrum danych przed podjęciem decyzji o wyborze obiektu pod kolokację. Centra Danych ATMAN i Thinx Poland praktycznie od początku swej działalności umożliwiają zainteresowanym odbycie wizyty referencyjnej, która rozwiewa wątpliwości i pozwala zobaczyć jak bezpiecznie kolokowane są urządzenia. ATM S.A., właściciel obu centrów, jako lider rynku usług kolokacyjnych w Polsce, stale inwestuje w rozbudowę i unowocześnianie swoich centrów danych.

Lokalizacja jest ważna

Na mapie świata pojawia się coraz więcej centrów danych, które w zależności od lokalizacji podlegają innym regulacjom prawnym. Z perspektywy zarządzania danymi osobowymi ma to krytyczne znaczenie. Przykładowo, dostawcy, którzy świadczą usługi centrów danych w państwach spoza Europejskiego Obszaru Gospodarczego, nie zawsze wskazują miejsca, gdzie dane klientów będą

Dzieje się tak z trzech powodów. Zinformatyzowany biznes „produkuje” coraz więcej danych.

Im większa ich ilość, tym bardziej konkurencyjność firm zależy od poziomu bezpieczeństwa

oraz kosztów gromadzenia i przechowywania informacji w postaci cyfrowej.

Page 24: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

24

fizycznie gromadzone i przetwarzane. W Polsce jest

inaczej, podmioty przetwarzające dane osobowe

mają obowiązek podania miejsca przetwarzania

danych poza UE, a za złamanie tak istotnego

przepisu grożą kary.

Dlatego tak istotne jest upewnienie się, czy

centrum danych, do którego chcemy przenieść

swoje zasoby, podlega rodzimym i unijnym

przepisom w obszarze ochrony danych osobowych.

W wymiarze prawnym warto również upewnić się,

czy dostawca usług centrów danych zawiera

ze swoimi klientami umowy typu Service Level

Agreement (SLA). Umowa SLA dotycząca usług

w Centrach Danych ATMAN i Thinx Poland

(zlokalizowanych na terenie Warszawy i Katowic)

pozwala nie tylko sformalizować zasady

współpracy (np. zakres odpowiedzialności

po stronie dostawcy i użytkownika), ale też określić

poziom kluczowych parametrów usług i uzyskać

najwyższy poziom jakości i bezpieczeństwa

w oparciu o najlepsze praktyki.

Potrzebna redundancja

Kluczowe jest spełnianie przez dostawcę usług

centrów danych najwyższych standardów

w obszarze infrastruktury i oprogramowania.

W przypadku infrastruktury teleinformatycznej

bezpieczeństwo zależy od pełnej dostępności

podstawowych zasobów: łączy telekomunikacyjnych,

które umożliwiają stabilny i wydajny transfer

danych przez Internet, a także kilku źródeł

zasilania o jednakowo dużej mocy. Atutem

dostawcy jest dysponowanie powierzchnią

kolokacyjną w różnych lokalizacjach, co jest

niezbędne do świadczenia usługi typu DRC

(Disaster Recovery Center). Dzięki temu

usługodawca może zapewnić klientowi

nieprzerwany dostęp do danych nie tylko

na poziomie pojedynczych systemów,

ale i całego obiektu. Warto więc upewnić się, czy wspomniany dostawca posiada więcej obiektów kolokacyjnych i czy mają one niezależne tory zasilania miejskiego i wewnętrznego z podtrzymaniem UPS, dodatkowe generatory prądu oraz redundantną klimatyzację.

Poziom bezpieczeństwa dodatkowo podnoszą: możliwość wymiany podzespołów lub uszkodzonego serwera w krótkim czasie, ochrona sieci (w tym rozwiązania firewall) i system anty-DDoS, a także backup danych oraz zabezpieczenie dostępu do paneli administracyjnych za pomocą certyfikatu SSL, który pozwala szyfrować i chronić przed przechwyceniem poufne dane przesyłane pomiędzy serwerem a użytkownikiem.

Wielu operatorów w jednym miejscu

Szukając centrum danych dla swoich zasobów, warto dowiedzieć się, jacy operatorzy dostępni są w wybranym obiekcie. Profesjonalne centra danych oferują zwykle usługi kilkunastu różnych operatorów. Natomiast najkorzystniejsze pod tym względem jest zdecydowanie się na neutralne telekomunikacyjnie centrum danych, bo to oznacza dostępność łączy zwykle kilkudziesięciu operatorów. W Polsce nie ma wielu takich obiektów. Największym jest zlokalizowane w Warszawie Centrum Danych Thinx Poland, którego dodatkowym atutem jest obecność węzła punktu wymiany ruchu Thinx, umożliwiającego bezpłatną i nielimitowaną wymianę ruchu IP pomiędzy operatorami.

W trybie 24/7

Firmy, które planują outsourcing swoich zasobów do centrów danych, powinny także sprawdzić mechanizmy zapewniające właściwy poziom kontroli dostępu do danych i informacji oraz dostępu fizycznego do kluczowych elementów

Page 25: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

25

infrastruktury teleinformatycznej. Spełnienie tych warunków to obecnie standard w centrach danych, wymagający de facto pracy w trybie 24/7 nie tylko ochrony i systemu kontroli dostępu, w tym monitoringu CCTV, ale też utrzymania systemu gaszenia, opieki operatorskiej i serwisowej. Tak zaprojektowane i zarządzane centra danych mogą oferować bezpieczne usługi kolokacji.

Alternatywą jest wydatek kilkudziesięciu milionów

Oczywiście część firm wciąż preferuje gromadzenie danych we własnych serwerowniach, choć może to być kosztowna inwestycja.

Budowa średniej wielkości serwerowni, która spełnia najwyższe standardy bezpieczeństwa na poziomie technologicznym, może kosztować kilkadziesiąt milionów złotych. Dodatkowym obciążeniem jest jej utrzymanie: trzeba zapewnić bezpieczeństwo techniczne i fizyczne, co wymaga całodobowego monitoringu oraz zaangażowania sztabu ludzi. Dla wielu przedsiębiorstw może to stanowić prawdziwe wyzwanie. Dlatego rozsądniejszą alternatywą jest outsourcing całości lub części infrastruktury IT i skorzystanie z jednej z usług centrów danych: kolokacji, hostingu lub chmury obliczeniowej. Każda z nich może przynieść firmie wymierne korzyści. Dzięki centrom danych dysponującym rezerwą podstawowych zasobów (powierzchnia, zasilanie, łącza) biznes klienta może się swobodnie rozwijać. Centra danych ATMAN i Thinx Poland oferują niemal nieograniczony dostęp do powierzchni kolokacyjnych, gwarantując możliwość wzrostu klienta przez wiele lat, w zależności od jego potrzeb.

Biznes za kilkaset złotych

O ile większe organizacje – zwłaszcza z sektora finansowego i telekomunikacyjnego – preferują

usługi kolokacyjne, o tyle sektor małych i średnich przedsiębiorstw chętniej sięga po hosting i dedykowane serwery. Podobnie jak w segmencie usług kolokacyjnych, tak i tutaj dynamika popytu na hosting utrzymuje się na wysokim poziomie.

Odzwierciedla to rosnąca popularność usług ATMAN EcoSerwer, które umożliwiają małym i średnim firmom uruchomienie m.in. strony internetowej oraz aplikacji biznesowych, np. e-commerce. W 2011 r. wartość ich sprzedaży była jeszcze niezauważalna z punktu widzenia całości przychodów. Przez kolejne dwa lata jednak przychody wzrosły z 1,3 mln w 2012 r. do 3,8 mln zł w 2013 r. Ośmiokrotny wzrost sprzedaży w 2012 r. i trzykrotny w 2013 r. wynika wprawdzie z niskiej bazy startowej, ale rosnący trend powinien utrzymać się na wysokim poziomie także w przyszłości.

Dzięki hostingowi i serwerom dedykowanym, które są wynajmowane w centrach danych, uruchomienie i rozwinięcie biznesu w sieci może kosztować zaledwie kilkaset złotych. Firmy nie muszą ani kupować sprzętu (otrzymują w dzierżawę dedykowany serwer), ani dbać o jego techniczną sprawność (mają zapewnioną opiekę serwisową). Infrastruktura udostępniana jest w centrach danych w formie usługi na żądanie (w ciągu godziny) i rozliczana w trybie abonamentowym. Dodatkowo taka usługa jak ATMAN EcoSerwer umożliwia swobodną konfigurację i zmianę wydajności serwerów, kiedy jest to potrzebne.

Biznes w chmurze

Podobne korzyści zapewnia ulokowana w centrum danych chmura obliczeniowa. Firmy nie muszą kupować infrastruktury serwerowej i sieciowej – jest ona udostępniana w formie usługi. Dzięki temu firma może zoptymalizować swoje koszty (oszczędzając m.in. na sprzęcie,

Page 26: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

26

energii i usługach zarządzania), zyskać większą elastyczność i skalowalność, a także podwyższyć bezpieczeństwo i komfort pracy.

Przenosząc swoje zasoby do chmury, przedsiębiorca może ponadto skupić się na swojej podstawowej biznesowej działalności, zamiast martwić się o warstwę teleinformatyczną, w tym monitoring systemów technicznych, kontrolę wykorzystania zasobów, aktualizację oprogramowania czy backup danych. Takie możliwości daje np. ATMAN Private Cloud – oferowana użytkownikom Centrum Danych ATMAN prywatna chmura z wydzielonym środowiskiem informatycznym, w tym procesorami, pamięcią RAM, siecią oraz przestrzenią dyskową. Dodatkowym atutem ATMAN Private Cloud jest możliwość przeniesienia odpowiedzialności za administrowanie chmurą na specjalistów zatrudnionych przez dostawcę usługi.

Postscriptum

Kiedy w minionej dekadzie do powszechnego języka wszedł termin „outsourcing IT”, wielu przedsiębiorców z obawą podchodziło do pomysłu, by wynosić na zewnątrz swoje zasoby. Lęk jednak bardziej wynikał m.in. z braku doświadczenia i obawy przed „nowym”. Dziś jest inaczej. Przybywa zarówno małych, jak i dużych firm, które wolą prowadzić swój biznes, korzystając z usług kolokacyjnych, hostingowych lub cloud computing świadczonych w centrach danych. Potwierdzeniem są niedawne wyniki badań PMR — instytucji badawczej opracowującej cykliczne raporty dotyczące m.in. rynku teleinformatycznego. Choć polski rynek usług centrów danych wciąż znajduje się we wczesnej fazie rozwoju, obecnie jest już wart ponad miliard złotych. W przyszłym roku powinien urosnąć o kolejne kilkanaście procent. Dlaczego?

W nowoczesnych centrach danych prowadzenie biznesu jest prostsze, bezpieczniejsze i tańsze.

Dariusz Wichniewicz

Dyrektor Działu Rozwoju Usług Telekomunikacyjnych w ATM S.A. Z branżą telekomunikacyjną związany jest ponad 20 lat. Jest jednym z pionierów komercyjnego Internetu w Polsce. Przy jego aktywnym wsparciu merytorycznym ATM S.A. jako pierwsza firma w Polsce zaczęła świadczyć usługi internetowe dla firm pod marką Internet Komercyjny w Polsce, a następnie rozwinęła działalność operatorską, dziś świadczoną pod marką ATMAN. Pracował także m.in. w Internet Partners i GTS.

Page 27: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

27

Realna twierdza wirtualnych danych – bezpieczeństwo data center

Nikt nie ma wątpliwości, że wykorzystanie chmury obliczeniowej w biznesie staje się coraz popularniejsze. Ośrodki przetwarzania danych świadczące usługi w technologii cloud computing są partnerami nie tylko dla korporacyjnego biznesu, ale także dla firm z sektora MŚP, urzędów administracji publicznej, jednostek ochrony zdrowia i organizacji pozarządowych. Ostatnie badania Microsoftu wskazują, że 48% średniej wielkości polskich firm dobrze rozumie mechanizmy działania i korzyści biznesowe kryjące się w chmurze obliczeniowej. Z innych badań wynika, że w ciągu ostatnich trzech lat radykalnie zmniejszyła się niewiedza polskich przedsiębiorców na temat nowoczesnego outsourcingu IT (z 63% do 9% w tym roku). O ile większość firm dobrze rozumie jakie zalety posiadają usługi przetwarzania danych w chmurze obliczeniowej, to najczęściej wskazywanym elementem powstrzymującym przedsiębiorców przed zdalnym IT są obawy związane z bezpieczeństwem. Zdaniem specjalistów z Sage, którzy przeprowadzili ankietę wśród przedsiębiorców, 57% badanych uważa bezpieczeństwo za najważniejszą kwestię outsourcingu IT.

Dla osób zarządzających ośrodkami przetwarzania danych odpowiednie zabezpieczenie danych jest najważniejszym aspektem usług w chmurze. Kompleksowo rozumiane bezpieczeństwo jest podstawą działania, ale także wyznacznikiem atrakcyjności oferty. Jego stopień przekłada się na stabilność, przewidywalność i pewność nowego wymiaru biznesu. Globalne trendy potwierdzają fakty, z których wynika, że z usług data center coraz częściej korzystają podmioty sektora publicznego i duże korporacje. z jednej strony najwięksi gracze pokładają w dedykowanych ośrodkach zaufanie, a z drugiej strony dokładnie wyliczają korzyści finansowe. Bezpieczeństwo danych informatycznych kosztuje i coraz rzadziej nawet duże firmy decydują się same inwestować środki we własną infrastrukturę. Korzystniejszy

w wymiarze poniesionych kosztów w stosunku

do poziomu zabezpieczenia jest wynajem zasobów

w działających ośrodkach przetwarzania danych.

Migracja w chmurę oznacza przeniesienie zasobów do

centrów danych, które są solidnie (fizycznie i logicznie)

zabezpieczone, posiadają infrastrukturę najwyższej

jakości oraz profesjonalne standardy działania.

Oprogramowanie w chmurze ma gwarancję, że jest

zawsze aktualne i dobrze zabezpieczone. Dla firmy

oznacza to pewność, że nie pojawią się problemy

z przestarzałym lub źle funkcjonującym systemem.

– Elżbieta Zdrojewska, Dyrektor Handlowy, Exea

Dwa wymiary bezpieczeństwa: fizyczny i wirtualny

Usługi przetwarzania danych w postaci chmury

obliczeniowej, wynajmu pamięci masowych czy

wykorzystania kolokowanych i dedykowanych

serwerów są dobrze zabezpieczone. Profesjonalne

ośrodki dbają o kwestie bezpieczeństwa danych

i całej infrastruktury. Polityka bezpieczeństwa

jest realizowana w dwóch wymiarach:

fizycznym i wirtualnym. Niezmiernie istotne

jest odpowiednie przygotowanie infrastruktury

środowiska serwerowego, zaczynając od obiektu,

jego lokalizacji, przez konstrukcję i podłączenie

do mediów podtrzymujących funkcjonowanie

środowiska, kończąc na wykwalifikowanym

personelu i odpowiednich procedurach. Po stronie

wirtualnej bezpieczeństwo to kwestie związane

z platformami systemowymi oraz ich obsługą

i gwarancją ciągłości funkcjonowania. Liczy się

solidne zabezpieczenie danych przed różnego

rodzaju awariami i atakami.

Chmura jest bezpieczniejsza

Kiedy pracownicy stają się coraz bardziej

mobilni i coraz częściej korzystają ze zdalnych

zasobów przedsiębiorstwa, oczywistym

Page 28: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

28

rozwiązaniem problemu bezpieczeństwa danych jest chmura obliczeniowa. Ale czy zdalne zasoby informatyczne, które są wystawiane z poziomu firmy gwarantują odpowiedni poziom bezpieczeństwa? Niektórzy przedsiębiorcy wciąż preferują korzystanie z własnych, często nieprofesjonalnie przygotowanych serwerów. Urządzenia te często funkcjonują w prowizorycznym środowisku serwerowym, które w minimalny sposób zabezpiecza cenne dane. Utrzymanie serwerowni na odpowiednim poziomie zabezpieczeń jest obecnie znacznym kosztem. Usługi profesjonalnego data center są w tym przypadku często nieporównywalne, a zależność koszt–bezpieczeństwo, prawie zawsze wskazuje ofertę chmurową jako korzystniejszą. Ponadto, zdalne połączenie pracowników z wirtualnymi zasobami w dobrze przygotowanej chmurze obliczeniowej eliminuje ryzyko wycieku danych.

Bezpieczeństwo środowiska wirtualizacji

Chmura obliczeniowa to moc urządzeń informatycznych organizowanych przez środowisko wirtualizacyjne. To dzięki niemu administratorzy są w stanie dynamicznie tworzyć różne instancje czy wirtualne maszyny dla poszczególnych odbiorców. Bezpieczeństwo platformy wirtualizacyjnej oznacza korzystanie z renomowanych rozwiązań. Przykładowo Exea Data Center używa jednego z najlepszych środowisk tego typu, tj. VMware.

Pewność środowiska to gwarancja najnowszych aktualizacji i wersji zastosowanych systemów operacyjnych i platform. Rozwiązania chmurowe minimalizują ryzyko ludzkiego błędu, który bardzo często prowadzi do zachwiania bezpieczeństwa całego systemu. Zasoby informatyczne wynajmowane w centrum przetwarzania danych to gwarancja, że systemy są zawsze aktualne (aktualizacje, poprawki). Wszelkie aktualizacje są wdrażane automatycznie dla wszystkich użytkowników.

Wirtualne pole walki

Obecnie logiczny wymiar przetwarzania danych

to permanentne zagrożenie różnego rodzaju

cyberatakami. Nowoczesne data center musi

gwarantować ochronę przed technikami ataku

wykorzystującymi sieć komputerową. Dane

firm narażone są na próby kradzieży, a także

cybersabotażu – zniszczenia baz danych

czy ograniczenia do nich dostępu. Coraz

popularniejsze są ostatnio ataki typu DDoS,

które stanowią poważne zagrożenie nie tylko

dla podmiotów o dużym zasięgu, ale również

mniejszych firm.

Elżbieta Zdrojewska, Dyrektor Handlowy, Exea

Page 29: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

29

Jednym z podstawowych narzędzi ochrony jest pełna kontrola administratorów nad ruchem przychodzącym, wychodzącym i przebiegającym wewnątrz centrum danych. Rozwiązania bezpieczeństwa nowej generacji oferują o wiele więcej funkcji niż tradycyjne firewalle. Jest to kontrola na poziomie aplikacji, wirtualnego środowiska, a także poszczególnych użytkowników. Pamiętać należy, że każdy klient musi mieć zdefiniowaną odpowiednią politykę bezpieczeństwa. w trakcie wykonywania usługi globalny monitoring środowiska pozwala na natychmiastową reakcję w przypadku incydentów (np. włamania lub nieuprawnionego transferu danych).

W parze ze wzrostem popularności platform mobilnych idzie gwałtowny przyrost zagrożeń wszelkiego rodzaju wirusami, atakującymi użytkowników końcowych, ale także całą infrastrukturę. Dlatego nieodzownym elementem wirtualnej warstwy zabezpieczeń powinna być kompleksowa ochrona antywirusowa.

Zabezpieczenia software’owe to przede wszystkim wykorzystanie najlepszych środowisk i systemów operacyjnych, wdrożenie systemów zapory, antywirusy i systemy antyDDoS. Nie można zapominać o certyfikowanych i sprawdzonych rozwiązaniach szyfrujących transmisję danych.

– Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea

Backup środowiska

Centrum przetwarzania danych gromadzi petabajty danych, a w perspektywie biznesowej musi gwarantować kopie bezpieczeństwa na wypadek awarii i groźby ich utraty. Nie ma możliwości funkcjonowania data center bez procedur tworzenia kopii zapasowych poszczególnych bloków danych na poziomie klientów, jak również strukturalnie na poziomie

zasobów data center. Elementarną funkcją

zabezpieczenia jest tworzenie (z możliwością

odtwarzania) kompletnej kopii środowiska –

tzw. disaster recovery.

Ekspercka kadra i określone uprawnienia

Praktyka pokazuje, że najsłabszym ogniwem

jest czynnik ludzki. Dlatego tak ważne jest

zaangażowanie odpowiednich ludzi z należytymi

kwalifikacjami. Obok wiedzy, muszą funkcjonować

przejrzyste i precyzyjne procedury. Osoby

pełniące role administratorów środowiska

powinny być obejmowane klauzulami poufności.

Każdy pracownik musi posiadać dokładnie

określone prawa dostępu. Dobrą praktyką

profesjonalnych centrów przetwarzania danych

jest przejrzystość procedur i jednolity system

raportowania incydentów.

Ścisłe określenie reguł jest także zabezpieczeniem

przed utratą danych. Chmurowe centra danych,

takie jak toruńska Exea Data Center, posiadają

systemy, dzięki którym gromadzone zasoby są

zabezpieczone na wypadek awarii i utraty danych.

– Elżbieta Zdrojewska, Dyrektor Handlowy, Exea

Fizyczne bezpieczeństwo dla wirtualnych danych

Pewność przetwarzanych danych to w istocie

bezpieczeństwo obiektu centrum przetwarzania

danych od lokalizacji budynku, aż po konstrukcję.

Przy wyborze lokalizacji dla toruńskiego ośrodka

przetwarzania danych Exea, brano pod uwagę

geograficzne położenie terenu względem

szlaków transportowych, portu lotniczego czy

terenów zalewowych. W przypadku Torunia

analiza dotyczyła też zagrożeń kataklizmami,

np. przerwania tamy na Wiśle we Włocławku.

Zabezpieczenie budynku to odpowiednia

konstrukcja obiektu i specjalistyczna technika

Page 30: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

30

przeciwpożarowa. Ewentualny pożar w centrum przetwarzania danych musi zostać ugaszony w takim sposób, aby ryzyko uszkodzenia danych było minimalne.

Realna ochrona

Elementarnym działaniem jest fizyczna ochrona obiektu. Dostęp do poszczególnych przestrzeni data center jest ściśle określony i rejestrowany. Stosuje się monitoring z wewnętrznymi i zewnętrznymi kamerami wysokiej rozdzielczości oraz czytniki biometryczne montowane przy wejściach do komór serwerowych. Wyposażenie pracowników ochrony w broń ostrą zniechęca kogokolwiek do ewentualnych aktów sabotażu czy dywersji.

Energia

Bezpieczeństwo fizyczne ma zapewniać ciągły dostęp do danych. Najważniejsza dla infrastruktury

środowiska data center jest energia. Przerwy

w dostawie energii są jedną z najpoważniejszych

przyczyn problemów z dostępnością do

danych. Dlatego centra przetwarzania danych

zabezpieczają się doprowadzając do swoich

obiektów alternatywne linie zasilania i instalując

dodatkowe GPZ-y. Zabezpieczenie dodatkowej

linii zasilania nie zawsze wystarczy, dlatego

środowiska serwerowe muszą posiadać

własne systemy zasilania. Są to najczęściej

agregaty prądotwórcze, które włączają się

zaraz po przerwaniu zasilania sieciowego.

Rozbudowane systemy baterii UPS podtrzymują

pracę środowiska w newralgicznym momencie

zmiany źródła zasilania. Najlepsze ośrodki

posiadają redundantne systemy UPS i agregaty,

aby wyeliminować możliwość przerwania choćby

na sekundę pracy środowiska w przypadku

awarii któregoś z komponentów. Pamiętać

należy, że podtrzymane muszą zostać nie tylko

urządzenia IT, ale również całe środowisko

serwerowe, w tym klimatyzacja.

Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea

Page 31: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

31

Łącza internetowe

Innym esencjonalnym elementem funkcjonowania

data center jest oczywiście podłączenie do sieci

internetowej. Profesjonalne ośrodki dywersyfikują

dostawy internetu pośród różnych dostawców

korzystających z fizycznie odrębnych linii

światłowodów. W obecnej dobie posiadanie

minimum trzech oddzielnych dostawców jest

właściwie standardem.

Klimatyzacja w środowisku serwerowym

Bezpieczeństwo urządzeń funkcjonujących w data

center to wymóg zapewnienia stabilnych warunków

klimatycznych dla serwerowni. Niezmiernie

ważne jest zastosowanie profesjonalnych

i odpowiednio zaprojektowanych systemów

klimatyzacji precyzyjnej. Komory serwerowe

powinny funkcjonować w oparciu o układ

urządzeń wytwarzających korytarze powietrza

o odpowiedniej temperaturze i wilgotności.

Certyfikacje: potwierdzone bezpieczeństwo

W ciągu ostatnich lat światowa branża

przetwarzania danych stała się na tyle istotna,

że powstały różne procedury. Coraz częściej

wymogi w zakresie bezpieczeństwa są stawiane

przez regulacje prawne i rozporządzania

administracyjne. Branża stosuje ponadto

specjalistyczną certyfikację, aby podkreślać

na rynku silną pozycję ośrodków, które w sposób

szczególny kładą nacisk na zabezpieczenia.

Dwa najważniejsze systemy oceny pochodzą z USA.

Pierwszy wprowadziła organizacja Uptime

Institute, a drugi Telecommunications Industry

Associacion. Obie organizacje dość podobnie

określają zasady funkcjonowania data center,

ale różnią się w szczegółach.

Założony w 1993 roku Uptime Institute opracował

dokumentację, która określa wyznaczniki

wysokiej jakości standardów w zakresie

funkcjonowania i odpowiedniej wydajności data

center. Zdefiniowano czteropoziomowy system

certyfikatów (Tier I – IV), które określają klasę

ośrodka przetwarzania danych. Dokument Data

Center Site Infrastructure Tier Standard: Topology –

określa główne wyznaczniki dla poszczególnych

stopni certyfikatów. Im wyższy stopień

certyfikatu, tym większy poziom bezpieczeństwa

i niezawodności urządzeń, a tym samym

lepsza gwarancja dostępności do danych.

Przy poziomie Tier III ośrodek może funkcjonować

niezależnie od prac serwisowych poszczególnych

komponentów. Jest to możliwe dzięki redundantnej

architekturze systemów zasilania i chłodzenia.

Co więcej, w przypadku awarii któregoś modułu,

niezależnie zadziała drugi, a wszystkie prace

serwisowe można wykonywać na pracującej

infrastrukturze IT.

Bardzo często zarządzający centrami przetwarzania

danych uzupełniają certyfikację infrastruktury

normami zarządzania jakością (ISO 9001) a także

bezpieczeństwem systemów informatycznych

(ISO 27 001). Oczywiście normy ISO dotyczą

aspektów organizacyjnych i procedur. Mają

one również wpływ na bezpieczeństwo całej

organizacji, co w konsekwencji przekłada się

na niezawodność całego centrum danych.

Poprzez audyty certyfikujące niezależni eksperci

potwierdzają wysoką jakość bezpieczeństwa.

Fizyczna topologia infrastruktury obiektu data

center powinna posiadać aktywne instalacje

zasilające, nadmiarowe komponenty we wszystkich

podsystemach oraz odporność na uszkodzenia.

Data center działające w oparciu o certyfikowaną

infrastrukturę gwarantuje wysoki poziom

bezpieczeństwa danych. Redundantne komponenty

środowiska serwerowni powodują, że pojawienie

się jakiejkolwiek awarii nie jest odczuwalne

dla klienta, który dysponuje nieprzerwanym

dostępem do swoich danych.

Page 32: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

32

Centrum Przetwarzania Danych Exea w Toruniu otrzymało certyfikat Tier III Certification of Design Documents. Dzięki temu Exea stała się jednym z dwóch ośrodków w Polsce spełniających wysokie standardy Uptime Institute. Klasyfikacja Tier określa poziom niezawodności infrastruktury fizycznej w centrach IT; dotyczy systemów w środowisku serwerowni, takich jak zasilanie, chłodzenie, rozwiązania architektoniczne i bezpieczeństwo. Data center funkcjonujące w oparciu o certyfikowaną dokumentację projektową gwarantuje użytkownikom bezpieczeństwo oraz wysoki poziom dostępu do danych.

Audytorzy analizowali projekt obiektu Exea pod kątem dedykowanych rozwiązań architektonicznych (odpowiednio przygotowane pomieszczenia do poszczególnych modułów infrastruktury: komory serwerowe, urządzenia podtrzymujące zasilanie UPS czy agregaty prądotwórcze). Istotna jest możliwość rozbudowy centrum danych oraz mechaniczne i automatyczne rozwiązania ułatwiające utrzymanie nieprzerwanego działania środowiska serwerowni. Certyfikacja dotyczy również odpowiedniej lokalizacji obiektu, która minimalizuje ryzyka związane z naturalnymi kataklizmami czy działalnością ludzką (np. odległość od portu lotniczego i autostrady).

Ścieżka certyfikacji Tier podzielona jest na 3 etapy: pierwszy z nich to zakończona właśnie przez Exea dokumentacja projektowa. Drugim krokiem jest certyfikacja wybudowanego zgodnie z projektem obiektu (Tier Certification of Constructed Facility). Ostatnim etapem jest natomiast certyfikat niezawodności operacyjnej działającego ośrodka przetwarzania danych (Operational Sustainability Certification), który potwierdza najwyższą jakość funkcjonującego centrum i bierze pod uwagę procedury jakie należy stosować, aby zapewnić odpowiednią niezawodność operacyjną.

Zarządzając data center, które posiada certyfikat TIER III na dokumentację projektową, bezpieczeństwo na poziomie infrastruktury wyraża się faktem, iż dowolny element infrastruktury może zostać wyłączony na potrzeby prac konserwacyjnych bez przerywania pracy sprzętu znajdującego się w komorze serwerowej. Zasada ta dotyczy również części serwerowej oraz sieciowej – zarówno od strony połączeń – jak i sprzętu.

– Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea

Page 33: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

33

Zakończenie

Usługi oferowane przez certyfikowany ośrodek przetwarzania danych pozwalają odbiorcom w większym stopniu koncentrować się na meritum ich działalności i to stanowi największą zaletę

wysokiego poczucia bezpieczeństwa. Warto pamiętać, jak wiele wymiarów ma kompleksowe zabezpieczenie danych w data center i na co należy zwrócić uwagę wybierając dostawcę chmury obliczeniowej.

Elżbieta Zdrojewska

Dyrektor Handlowy Exea z dwunastoletnim doświadczeniem handlowym w branży IT. Absolwentka Wydziału Fizyki, Astronomii i Informatyki Stosowanej UMK w Toruniu. Specjalizuje się w biznesowym podejściu do informatyki oraz optymalizacją kosztów przedsiębiorstw. Doświadczeniem zawodowym aktywnie wspiera integratorów we wdrażaniu nowoczesnych technologii.

Sławomir Kozłowski

Dyrektor Centrum Przetwarzania Danych Exea, od początku kariery zawodowej związany ściśle z branżą IT. Aktywny w obszarze nowoczesnych technologii, zawsze czuły na potrzeby biznesu.

Page 34: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

34

Jak polscy dostawcy podchodzą do umów powierzenia?

Beata Marek, Cyberlaw.pl

To tytuł pierwszego w Polsce badania przeprowadzonego na grupie 50 losowo wybranych usługodawców mających siedzibę w Polsce i oferujących klientom biznesowym dostęp do zasobów IT, które zostało przeprowadzone przez Cyberlaw i Cloud Security Alliance Polska.

Wynika z niego m.in., że:

•Aż90%niedostarczajakiejkolwiekinformacji na tematy związane z prawnymi aspektami powierzenia danych w ramach outsourcingu za pomocą firmowej strony www.

•Zaledwie32%rozumiepotrzebyswoich potencjalnych klientów oferując im możliwość zawarcia pisemnej umowy powierzenia przetwarzania danych osobowych oraz wglądu do wzornika umowy przed rozpoczęciem świadczenia usługi.

Raport z badania został wzbogacony o rozmowę z dr Wojciechem Wiewiórowskim – Generalnym Inspektorem Ochrony Danych Osobowych, który wskazał m.in, że:

•Dostawca nie ma obowiązku sprawdzać, jakie dane są przechowywane, ale jeżeli otrzyma od klienta informację, że są albo będą przechowywane dane osobowe, to jest już wystarczające do tego, żeby po stronie dostawcy pojawiły się obowiązki wynikające z ustawy o ochronie danych osobowych.

•Dostawca powinien zastanowić się, czy jest tylko przetwarzającym, czy może staje się de facto administratorem danych osobowych.

Beata Marek

Jest prawnikiem i właścicielem Cyberlaw. Na co dzień łączy biznes z prawem i bezpieczeństwem teleinformatycznym. Uwielbia pracę w interdyscyplinarnych zespołach i atmosferę startupów. Specjalizuje się w prawie nowych technologii.

Autorka wielu publikacji i prelegentka na licznych, branżowych konferencjach. Dyrektor ds. prawnych w ISSAPolska – Stowarzyszeniu do spraw Bezpieczeństw Systemów Informacyjnych, wiceprezes Cloud Security Alliance Polska, członkini International Cyber Threat Task Force, a także Fundacji Bezpieczna Cyberprzestrzeń.

Redaktor naczelna kwartalnika naukowego „ICT Law Review“ oraz autorka bloga dla programistów i e-przedsiębiorców „cyberlaw.pl“.

Całość można przeczytać na www.cyberlaw.pl

Page 35: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

35

Przeczytaj na portalu

Page 36: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

36

Czytaj całość

Jak spać spokojnie, czyli nieprzerwana dostępność danych krok po kroku

W ostatnich latach świat biznesu znacząco się zmienił, a rozwój nowoczesnych technologii sprawił, że firmy działają nieprzerwanie. Niezależnie od tego czy ktoś potrzebuje skorzystać z danych w południe czy o trzeciej nad ranem, dostępność centrum danych musi być wysoka. Co więcej, ewentualna awaria nie może doprowadzić do długiego przestoju. Czy przy takich wymaganiach managerowie i administratorzy IT mogą spać spokojnie?

7 grzechów głównych systemów backupu

System backupu w przedsiębiorstwie cały czas pozostaje tematem, który często pomija się w planach rozwojowych, a jeśli już się w nich pojawia to w kontekście poszukiwania oszczędności. Prowadzi to do sytuacji, w której nie spełnia on często swojej roli i w konsekwencji nie gwarantuje bezpieczeństwa przechowywanych danych. Doświadczenia w przeprowadzaniu audytów Centralnych Systemów Backupu (CSB) i wnioski z nich płynące, pozwoliły nam na sporządzenie zestawienia najczęściej występujących „grzechów głównych systemów backupu”.

Czytaj całość

Page 37: Nowoczesne centrum danych - it-managerit-manager.pl/wp-content/uploads/Nowoczesne-Centrum-Danych.pdf · na czynniki makroekonomiczne. Na polskim rynku widoczny jest wyraźny trend

37

Centra danych zgodne z Rekomendacją D

W coraz większym stopniu konkurencyjność instytucji finansowych jest warunkowana przez bezpieczne gromadzenie i przetwarzanie danych. Prawie 90 proc. Polaków otrzymuje wynagrodzenia przelewem, 77 proc. posiada rachunek oszczędnościowo-rozliczeniowy, a 66 proc. posiada kartę płatniczą1. Na popularności zyskują również bankowość mobilna i analizy Big Data, które umożliwiają instytucjom finansowym skuteczniejsze personalizowanie oferty. Co by się jednak wydarzyło, gdyby dostęp do danych został przerwany choćby na chwilę?

Onet w chmurze

Realizacja projektu poprowadzonego wspólnie przez IBM i Onet Technologie, działu obsługującego portal Onet od strony informatycznej, trwała około roku. Większość tego czasu zajęło opracowanie odpowiedniego modelu biznesowego i koncepcji infrastruktury, natomiast samo wdrożenie trwało kilka miesięcy. Chmura została zbudowana w całości na bazie komponentów IBM klasy enterprise. Rozwiązanie będzie udostępnione klientom Onetu w marcu 2013 roku. Przedstawiamy Państwu case study tego projektu.

Czytaj całość

Czytaj całość