Wartość polskiego rynku data center w latach 2011–2015 się podwoiła i obecnie sięga 1,3 mld zł. – Cały czas widoczny jest wyraźny trend wzrostu powierzchni dostępnej pod usługi kolokacji i hostingu. W latach 2013–2015 każdego roku oddawano do dyspozycji klientów ok. 5 tys. mkw. nowej powierzchni serwerowej – mówi Paweł Olszynka, ekspert firmy badawczej PMR. Dodaje, że wzrost zapotrzebowania na usługi centrów danych jest przede wszystkim pochodną zwiększenia ilości przetwarzanych danych, ale również rozszerzenia oferty dostawców.
Firmy powinny dokonywać ostrej selekcji, ponieważ przechowywanie nieużytecznych i przestarzałych informacji, czyli tzw. bug data, wiąże się z niemałymi kosztami. Budowa i utrzymanie serwerowni o powierzchni 100 mkw. pochłonie aż 17 mln zł na przestrzeni dziesięciu lat – szacuje Atman, operator największego polskiego centrum danych.
– Choć outsourcing będzie znacząco tańszy, bo wyniesie 7 mln zł, to przy założeniu, że ponad 30 proc. danych stanowią informacje zbędne, i tak okaże się, że firmy tracą miliony z powodu przechowywania niepotrzebnych danych – zwraca uwagę Robert Mikołajski, ekspert z Atmana.
Nie tylko koszty
Szacuje się, że na świecie mamy już ponad trzy eksabajty (10 do potęgi 18) zbędnych danych. Do końca tego roku koszt ich utrzymania przekroczy próg 50 mld dolarów. To niemal osiem razy tyle, ile firmy przeznaczają na przechowywanie danych typu big data. Aż 41 proc. danych przedsiębiorstw nie było modyfikowanych od trzech lat, zaś 12 proc. w ciągu siedmiu minionych lat nigdy nie zostało nawet otwartych – podaje Data Geonomics Index.
Dużym błędem jest bazowanie na starych informacjach przy opracowywaniu modeli biznesowych i strategii. Jakub Kot, zarządzający Dealavo, podaje przykład budowania polityki cenowej. Liczba produktów oferowanych w sprzedaży online stale rośnie, a ich ceny zmieniają się niezwykle dynamicznie. – Niezbędne jest wykorzystanie mechanizmów uczenia maszynowego. Takie mechanizmy dostarczają firmom aktualnych danych o cenach w czasie rzeczywistym – podkreśla.