fbTrack
REKLAMA
REKLAMA

Nowe technologie

Big Data przetwarza przeterminowane dane? Rozwiązaniem problemu może okazać się rozwiązanie Fast Data

Szybki rozwój technologii i wykładniczo rosnące ilości gromadzonych danych sprawiają, że infrastruktura informatyczna firm oparta o rozwiązania Big Data może okazać się niewystarczająca. Obecnie dla firm niezwykle istotne jest operowanie na możliwie jak najaktualniejszych danych, które umożliwiają przeprowadzanie skutecznych i trafnych analiz biznesowych.

Dlaczego Big Data okazuje się niewystarczająca i jak z tym problemem radzą sobie najwięksi gracze na rynku? Wątpliwości rozwiewa ekspert firmy ITMAGINATION.

Ponad 60% firm przetwarza nieaktualne dane

W samym 2017 roku amerykańskie firmy wydały na wdrożenia Big Data 130 mln dolarów, a zgodnie z danymi raportu IDC jedynie 8 proc. polskich firm zainwestowało rozwiązania z zakresu analizy ogromnych zbiorów danych. Niestety, wciąż wiele przedsiębiorstw nie jest gotowych na przetwarzanie Big Data. Raport Capgemini Big & Fast ustalił, że jedynie 27 proc. wdrożeń Big Data okazało się udanymi.


Dlaczego firmy nie są zadowolone z operowania na ogromnych zbiorach danych? Podstawowym problemem jest szybkie dezaktualizowanie agregowanych informacji. Zgodnie z rynkowymi analizami aż 60 proc. przechowywanych danych stanowią informacje przestarzałe i zdezaktualizowane. Utrzymywanie takiego bagażu informacji przez firmy jest całkowicie nieopłacalne.


Niezależnie od sektora, w którym funkcjonują przedsiębiorstwa, decyzje poparte danymi muszą być podejmowane dynamicznie, nierzadko w czasie rzeczywistym. Wymusza to zupełnie nowe podejście do sposobu agregowania oraz przetwarzania informacji w firmach.


Sektor bankowy musi szybko reagować na wszelkie zmiany polityczne i gospodarcze, by móc obierać odpowiednie strategie inwestycyjne i finansowe. Przedsiębiorstwa produkcyjne muszą uzyskiwać błyskawiczny dostęp do informacji o potencjalnych wadach wykrytych na produkcji, by móc szybko wyeliminować usterki, a sektor zdrowotny musi jak najszybciej uzyskiwać dane dotyczące występowania i rozprzestrzeniania się ognisk chorób zakaźnych, czy aktualnych informacji medycznych o pacjentach. Wedle ITMAGINATION do takich działań niezbędne jest pozyskiwanie dostępu do jak najnowszych danych.

Walmart bierze pod uwagę jedynie dane sprzed kilku tygodni

Przykładem podejścia do analizy danych może być amerykański potentat handlowy – sieć Walmart. Analitycy zatrudniani przez giganta z Arkansas przyznają, że podczas analiz biorą pod uwagę jedynie dane zagregowane nie dalej niż kilka tygodni wstecz. Starsze informacje nie są brane pod uwagę podczas planowania działalności operacyjnej i tworzenia rynkowych prognoz. W ten sposób możliwe jest także znaczne ograniczenie kosztów gromadzenia, przechowywania i utrzymywania danych.

Fast Data pozwoli operować na najświeższych danych i znacząco ograniczy koszty ich przetwarzania

Wedle raportu Big & Fast Data: The Rise of Insight – Driven Business przygotowanego przez przedsiębiorstwo konsultingowe Capgemini aż 54 proc. ankietowanych przyznaje, że Fast Data może w sposób fundamentalny przyczynić się do zwiększenia elastyczności i efektywności biznesowej przedsiębiorstw z każdego sektora gospodarczego. Wedle rynkowych specjalistów i analityków Fast Data może okazać się o wiele trafniejszym rozwiązaniem do zarządzania zbiorami danych niż Big Data.


Jednym z podstawowych problemów, które mogą pojawić się podczas wdrażania Fast Data, jest sposób ekstrahowania wartościowych danych spośród szumu informacyjnego. Warto zwrócić uwagę na fakt, że aż 90 proc. wszystkich danych w sieci wygenerowanych zostało w ciągu dwóch ostatnich lat. Co więcej, szacuje się, że do 2020 roku ilość danych w cyberprzestrzeni może przekroczyć nawet 44 trylionów gigabajtów (47244,64 jottabajtów).


Czy polskie firmy są gotowe na wdrożenie Fast Data? Naturalnie. Eksperci ITMAGINATION zgodnie przyznają, że implementacja rozwiązań z zakresu Fast Data opartych o rozwiązania chmurowe nie okaże się bardziej skomplikowana od wdrożeń Big Data. Co więcej, potencjalne korzyści z operowania najświeższymi danymi bez konieczności utrzymywania zbiorów niepotrzebnych danych zapewnią przedsiębiorstwom o wiele większą moc operacyjną, elastyczność i pozwolą znacznie ograniczyć koszty analizy danych.

REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA