Wkroczyliśmy w erę zwaną big data, czyli danych, które znacznie wykraczają poza standardowe dane transakcyjne. Nasza sytuacja przypomina położenie poszukiwaczy złota: zdobyte informacje mają niewielką wartość, o ile nie znajdziemy sposobu na wyłuskanie tych istotnych, na podstawie których możemy podejmować kluczowe decyzje.
Trzy ?główne źródła
Są trzy główne źródła big data. Pierwsze jest źródłem ustrukturyzowanym, dostarczającym danych w tradycyjnym rozumieniu tego słowa, czyli informacji transakcyjnych. Potem mamy dużo nieustrukturyzowanych danych, które dotyczą zachowań klientów podczas przeglądania stron internetowych, tworzenia blogów, maili, komentarzy o produktach i usługach umieszczanych na portalach społecznościowych. Trzecim źródłem są czujniki. Transakcja dokonana za pomocą telefonu komórkowego pokazuje lokalizację użytkownika, a także informacje o czynnościach wykonanych tuż przed nią, np. do kogo zadzwonił lub z jakich aplikacji skorzystał. Pozostaje jednak pytanie: jak wykorzystać te wszystkie dane, by udoskonalić nasz proces decyzyjny?
Mówiąc o cechach charakterystycznych big data, mówimy o trzech V: volume (ilości), velocity (prędkości) i variety (różnorodności). Istnieje jeszcze czwarte V, czyli jak wydobyć z tego wszystkiego jakąś wartość (value). Przedsiębiorcy muszą zrozumieć, że big data to nie tylko kwestia technologii, lecz także zmian w kulturze i procesach wewnętrznych firmy. Wiele decyzji biznesowych opiera się na intuicji. Big data nie jest jej zamiennikiem, zapewnia lepszy wgląd w sytuację.
Gry liczbowe
Komputer potrafi przetworzyć bardzo duże ilości danych i czasem uwidacznia współzależności, których sami nigdy byśmy nie dostrzegli. Proces ten nazywa się „now casting" (prognozowanie bieżące). Opiera się na seriach danych z różnych źródeł, a jego celem jest prognoza trendów ekonomicznych. Dla przykładu: jeśli weźmiemy dane o bezrobociu, o transakcjach itd., możemy precyzyjnie przewidzieć PKB w bieżącym kwartale jeszcze przed ogłoszeniem oficjalnych danych.
Dobrym przykładem skali big data jest Wal-Mart, który przeprowadza milion transakcji konsumenckich co godzinę, co daje 2,5 petabajta informacji, a więc 167 razy tyle danych, ile znajdziemy w całej Bibliotece Kongresu Stanów Zjednoczonych. Jeśli Wal-Mart jest w stanie analizować te dane, może optymalizować łańcuch dostaw i decydować, kiedy i gdzie wystawiać produkty w sklepach. Tu napotykamy jednak na jedną z największych trudności związanych z big data: trzeba wiedzieć, czego się szuka. Jeśli tego nie wiemy, istnieje spore ryzyko, że pomylimy współzależność z przyczynowością.