fbTrack
REKLAMA
REKLAMA

Telekomunikacja i IT

Polski rynek data center. Potop śmieciowych danych

123RF
Ponad 60 proc. przechowywanych danych stanowią kopie przeterminowanych informacji.

Wartość polskiego rynku data center w latach 2011–2015 się podwoiła i obecnie sięga 1,3 mld zł. – Cały czas widoczny jest wyraźny trend wzrostu powierzchni dostępnej pod usługi kolokacji i hostingu. W latach 2013–2015 każdego roku oddawano do dyspozycji klientów ok. 5 tys. mkw. nowej powierzchni serwerowej – mówi Paweł Olszynka, ekspert firmy badawczej PMR. Dodaje, że wzrost zapotrzebowania na usługi centrów danych jest  przede wszystkim pochodną zwiększenia ilości przetwarzanych danych, ale również rozszerzenia oferty dostawców.

Firmy powinny dokonywać ostrej selekcji, ponieważ przechowywanie nieużytecznych i przestarzałych informacji, czyli tzw. bug data, wiąże się z niemałymi kosztami. Budowa i utrzymanie serwerowni o powierzchni 100 mkw. pochłonie aż 17 mln zł na przestrzeni dziesięciu lat – szacuje Atman, operator największego polskiego centrum danych.

– Choć outsourcing  będzie znacząco tańszy, bo wyniesie 7 mln zł, to przy założeniu, że ponad 30 proc. danych stanowią informacje zbędne, i tak okaże się, że firmy tracą miliony z powodu przechowywania niepotrzebnych danych – zwraca uwagę Robert Mikołajski, ekspert  z Atmana.

Nie tylko koszty

Szacuje się, że na świecie mamy już ponad trzy eksabajty (10 do potęgi 18) zbędnych danych. Do końca tego roku koszt ich utrzymania przekroczy próg 50 mld dolarów. To niemal osiem razy tyle, ile firmy przeznaczają na przechowywanie danych typu big data. Aż 41 proc. danych przedsiębiorstw nie było modyfikowanych od trzech lat, zaś 12 proc. w ciągu siedmiu minionych lat nigdy nie zostało nawet otwartych – podaje Data Geonomics Index.

Dużym błędem jest bazowanie na starych informacjach przy opracowywaniu modeli biznesowych i strategii. Jakub Kot, zarządzający Dealavo, podaje przykład budowania polityki cenowej. Liczba produktów oferowanych w sprzedaży online stale rośnie, a ich ceny zmieniają się niezwykle dynamicznie. – Niezbędne jest wykorzystanie mechanizmów uczenia maszynowego. Takie mechanizmy dostarczają firmom aktualnych danych o cenach w czasie rzeczywistym – podkreśla.

Jak odzyskać cenne informacje

Eksperci zwracają też uwagę na aspekt bezpieczeństwa. O „stare" dane rzadko się troszczymy, tymczasem mogą tam się znaleźć wrażliwe informacje, które będą łatwym łupem dla cyberprzestępców.

Ważnym segmentem rynku danych są też usługi disaster recovery (ang. odtwarzanie awaryjne). – Moim zdaniem trend ten jeszcze się umocni, tym bardziej że widać rosnący popyt zgłaszany przez duże instytucje krajowe i zagraniczne – mówi Olszynka. Dodaje, że plany dostawców również zakładają rozbudowę powierzchni biurowych, które mogą być wykorzystane jako biura zapasowe.

Opinia

Piotr Prajsnar, prezes Cloud Technologies

Firmy często nie zdają sobie sprawy z tego, że dane mają krótki termin przydatności do biznesowego spożycia. Aby zachowały swoją wartość, należy je regularnie oczyszczać oraz weryfikować, pozbywając się informacji, które dawno przestały cokolwiek znaczyć. Takimi danymi są tzw. bug data. To dane śmieciowe, zawierające mylne, nieaktualne informacje o kliencie lub firmie, które w efekcie przeszkadzają przedsiębiorstwu w monetyzacji zasobów cyfrowych. Skalę takich danych szacuje się aktualnie na 3 mln terabajtów, czyli 3 eksabajty.

Źródło: Rzeczpospolita
REKLAMA
REKLAMA

WIDEO KOMENTARZ

REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA