W rosnących ilościach różnorodnych typów danych, takich jak wskaźniki ekonomiczne, naukowe i środowiskowe, mogą znajdować się odpowiedzi na pytania o tendencje i prognozy na przyszłość. Warunkiem dobrej interpretacji jest prawidłowa analiza, synteza i sprawne przetwarzanie zgromadzonych danych. Konieczne stało się stworzenie szybszych metod identyfikacji zagrożeń, śledzenia wybuchów epidemii, krótko- i długofalowych zmian pogody.
– Dzisiejszy sprzęt nie nadaje się do obsługi takich wyzwań, a będą one coraz trudniejsze, ponieważ liczba danych nadal rośnie wykładniczo – mówi Trung Tran, kierownik programu projektowego w firmie Microsystems Technology Office (MTO) DARPA.
Aby zlikwidować tę niedoskonałość technologii, w zeszłym roku MTO ogłosiło program Hierarchical Identify Verify Exploit (HIVE), do którego zgłosiło się pięciu wykonawców. Celem projektu jest zrealizowanie postulatu HIVE: opracowanie zaawansowanej platformy do przetwarzania danych specjalizującej się w analizie i interpretacji ogromnych ilości informacji.
Kwintet wykonawców składa się z dużych firm z branży elektroniki komercyjnej i obronnej, laboratoriów i uniwersytetów: Intel Corporation (Santa Clara, Kalifornia), Qualcomm Intelligent Solutions (San Diego, Kalifornia), Pacific Northwest National Laboratorium (Richland, Waszyngton), Georgia Tech (Atlanta, Georgia) i Northrop Grumman (Falls Church, Wirginia).
DARPA przeznaczyła na rozwój projektu 80 mln dolarów, a całość ma pochłonąć ponad 100 mln. Prace zaplanowano na 4,5 roku.