Działy IT będą musiały pomóc okiełznać wielkie zbiory danych

Z dnia na dzień rośnie liczba smartfonów, kamer, czujników, urządzeń pomiarowych, które są podłączane do sieci. Generowane jest coraz więcej informacji, które mogą być wykorzystywane do podejmowania decyzji biznesowych. Problem w tym, że obecnie niewielu menadżerów umie jeszcze z tego bogactwa skorzystać, bo brak im odpowiednich narzędzi. Firmy z branży IT zapowiadają, że są gotowe je dostarczyć

Publikacja: 24.06.2013 08:00

Działy IT będą musiały pomóc okiełznać wielkie zbiory danych

Foto: ROL

Termin „wielkie zbiory danych" (ang. Big Data) oznacza zbiory, które są zbyt duże, zbyt niejednolite lub które charakteryzują się zbyt dużą dynamiką zmian, aby można było je analizować przy użyciu tradycyjnych technik bazodanowych.

- Dziś w niewielu firmach, podejmując decyzje, pod uwagę bierze się takie źródła, jak materiały wideo, czy media społecznościowe, bo nie wiadomo jak się zabrać do ich analizy. A pierwsze przykłady pokazują, że analizować je warto – mówi Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań data center i wirtualizacja w Cisco Systems Poland.

Podaje przykład sieci sprzedaży AGD z zagranicy, która udostępniła klientom w sklepach hotspoty i analizowała, jakie zapytania  wpisują do wyszukiwarki internetowej przez smartfony.  Nie było specjalnym zaskoczeniem, że często porównywali ceny z ofertą e-sklepów. To pozwalało na odpowiednie dostosowywanie cenników pracownikom sieci AGD.

Działy IT w firmach przeczuwają już dziś, że okiełznanie wielkich zbiorów danych będzie w najbliższych latach jednym z ich najważniejszych zadań. Jednym  rozwiązań, jest technologia in-memory computing, w której ładowanie i przetwarzanie danych odbywa się w pamięci podręcznej RAM z pominięciem tradycyjnych nośników danych, takich jak dyski twarde, czy taśmy magnetyczne. W porównaniu z metodami tradycyjnymi technologia in-memory umożliwia szybszą pracę na dużych zbiorach.

Na takie rozwiązania mocno stawia np. niemiecki SAP, producent oprogramowania biznesowego.  Kilka miesięcy temu firma ta zaprezentowała swój najnowszy produkt oparty na platformie SAP HANA, bazujący na technologii in-memory. Umożliwia on rejestrowanie i analizowanie danych w czasie rzeczywistym na jednej platformie.  Pozwala to klientom przetwarzać  potrzebne informacje w ciągu kilku sekund, co wcześniej zajmowało kilka godzin, a nawet dni. Dzięki temu np. właściciel sieci sklepów będzie mógł śledzić na bieżąco, jakie towary i gdzie się sprzedają w danej chwili.

Jedną z pierwszych firm, która zaczęła testować w swej działalności to rozwiązanie, jest znany producent słodyczy Ferrero. – W ciągu najbliższych pięciu lat firma Ferrero chce podwoić swoje całkowite obroty poza Europą, w czym pomóc technologia in memory – mówi Enzo Bertolini, dyrektor ds. informatycznych w grupie Ferrero. – Po pierwszych doświadczeniach widzimy, że można znacznie przyspieszyć i uprościć korzystanie z informacji dostępnych w czasie rzeczywistym. Spodziewamy się wyraźnych korzyści w zakresie promocji handlowych i łańcucha dostaw uzyskanych dzięki lepszym symulacjom i sprawniejszym planom. Sądzimy, że przyszłość, to połączenie mobilności z dużymi zbiorami danych, co oznacza zmianę sposobu podejmowania decyzji i zarządzania procesami – tłumaczy Enzo Bertolini.

Firma RSA z kolei przewiduje, że w ciągu dwóch lat analityka wielkich zbiorów danych będzie miała wpływ na zmiany w wielu segmentach bezpieczeństwa informatycznego. Na przykład w segmencie monitorowania sieci, uwierzytelniania i autoryzacji użytkownika, zarządzania tożsamością, wykrywania oszustw i oprogramowania nadzorującego zgodność działania korporacji z prawem, procedurami i etyką (tzw. compliance). Według specjalistów z RSA w ciągu następnych 3-5 lat narzędzia do analizy danych będą w dalszym ciągu ewoluować, udostępniając szereg zaawansowanych funkcji prognostycznych i zautomatyzowane narzędzia kontroli działające w czasie rzeczywistym.

Dostrzeżenie  przez biznes możliwości, jakie stwarza analiza Big Data, to szansa także dla operatorów telekomunikacyjnych.  Z badania Cisco wynika bowiem, że tylko 45 menadżerów z działów IT w polskich firmach uważa, że ich sieci firmowe są gotowe na współpracę z dużymi zbiorami danych. W skali światowej wskaźnik ten jest jeszcze niższy i wynosi 41 proc. Jednocześnie 33 proc. polskich respondentów deklaruje, że aby rozwiązać ten problem będzie im potrzebna większą przepustowość łączy. To może okazać się kolejnym stymulantem segmentu transmisji danych na rynku usług dla biznesu.

Termin „wielkie zbiory danych" (ang. Big Data) oznacza zbiory, które są zbyt duże, zbyt niejednolite lub które charakteryzują się zbyt dużą dynamiką zmian, aby można było je analizować przy użyciu tradycyjnych technik bazodanowych.

- Dziś w niewielu firmach, podejmując decyzje, pod uwagę bierze się takie źródła, jak materiały wideo, czy media społecznościowe, bo nie wiadomo jak się zabrać do ich analizy. A pierwsze przykłady pokazują, że analizować je warto – mówi Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań data center i wirtualizacja w Cisco Systems Poland.

Pozostało 85% artykułu
Ekonomia
Gaz może efektywnie wspierać zmianę miksu energetycznego
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Ekonomia
Fundusze Europejskie kluczowe dla innowacyjnych firm
Ekonomia
Energetyka przyszłości wymaga długoterminowych planów
Ekonomia
Technologia zmieni oblicze banków, ale będą one potrzebne klientom
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Ekonomia
Czy Polska ma szansę postawić na nogi obronę Europy