Termin „wielkie zbiory danych" (ang. Big Data) oznacza zbiory, które są zbyt duże, zbyt niejednolite lub które charakteryzują się zbyt dużą dynamiką zmian, aby można było je analizować przy użyciu tradycyjnych technik bazodanowych.
- Dziś w niewielu firmach, podejmując decyzje, pod uwagę bierze się takie źródła, jak materiały wideo, czy media społecznościowe, bo nie wiadomo jak się zabrać do ich analizy. A pierwsze przykłady pokazują, że analizować je warto – mówi Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań data center i wirtualizacja w Cisco Systems Poland.
Podaje przykład sieci sprzedaży AGD z zagranicy, która udostępniła klientom w sklepach hotspoty i analizowała, jakie zapytania wpisują do wyszukiwarki internetowej przez smartfony. Nie było specjalnym zaskoczeniem, że często porównywali ceny z ofertą e-sklepów. To pozwalało na odpowiednie dostosowywanie cenników pracownikom sieci AGD.
Działy IT w firmach przeczuwają już dziś, że okiełznanie wielkich zbiorów danych będzie w najbliższych latach jednym z ich najważniejszych zadań. Jednym rozwiązań, jest technologia in-memory computing, w której ładowanie i przetwarzanie danych odbywa się w pamięci podręcznej RAM z pominięciem tradycyjnych nośników danych, takich jak dyski twarde, czy taśmy magnetyczne. W porównaniu z metodami tradycyjnymi technologia in-memory umożliwia szybszą pracę na dużych zbiorach.
Na takie rozwiązania mocno stawia np. niemiecki SAP, producent oprogramowania biznesowego. Kilka miesięcy temu firma ta zaprezentowała swój najnowszy produkt oparty na platformie SAP HANA, bazujący na technologii in-memory. Umożliwia on rejestrowanie i analizowanie danych w czasie rzeczywistym na jednej platformie. Pozwala to klientom przetwarzać potrzebne informacje w ciągu kilku sekund, co wcześniej zajmowało kilka godzin, a nawet dni. Dzięki temu np. właściciel sieci sklepów będzie mógł śledzić na bieżąco, jakie towary i gdzie się sprzedają w danej chwili.