W rosnących ilościach różnorodnych typów danych, takich jak wskaźniki ekonomiczne, naukowe i środowiskowe, mogą znajdować się odpowiedzi na pytania o tendencje i prognozy na przyszłość. Warunkiem dobrej interpretacji jest prawidłowa analiza, synteza i sprawne przetwarzanie zgromadzonych danych. Konieczne stało się stworzenie szybszych metod identyfikacji zagrożeń, śledzenia wybuchów epidemii, krótko- i długofalowych zmian pogody.

– Dzisiejszy sprzęt nie nadaje się do obsługi takich wyzwań, a będą one coraz trudniejsze, ponieważ liczba danych nadal rośnie wykładniczo – mówi Trung Tran, kierownik programu projektowego w firmie Microsystems Technology Office (MTO) DARPA.

Aby zlikwidować tę niedoskonałość technologii, w zeszłym roku MTO ogłosiło program Hierarchical Identify Verify Exploit (HIVE), do którego zgłosiło się pięciu wykonawców. Celem projektu jest zrealizowanie postulatu HIVE: opracowanie zaawansowanej platformy do przetwarzania danych specjalizującej się w analizie i interpretacji ogromnych ilości informacji.

Kwintet wykonawców składa się z dużych firm z branży elektroniki komercyjnej i obronnej, laboratoriów i uniwersytetów: Intel Corporation (Santa Clara, Kalifornia), Qualcomm Intelligent Solutions (San Diego, Kalifornia), Pacific Northwest National Laboratorium (Richland, Waszyngton), Georgia Tech (Atlanta, Georgia) i Northrop Grumman (Falls Church, Wirginia).

DARPA przeznaczyła na rozwój projektu 80 mln dolarów, a całość ma pochłonąć ponad 100 mln. Prace zaplanowano na 4,5 roku.

– Gdy przyjrzymy się dzisiejszym procesorom, zobaczymy, że korzystają one z architektury opracowanej przez von Neumanna w latach 40. ubiegłego wieku – tłumaczy Trung Tran. – CPU i GPU wykonują co prawda obliczenia równolegle, ale każdy z rdzeni to wciąż stara koncepcja von Neumanna.

HIVE będzie w stanie analizować informacje w zupełnie inny sposób, niż robią to współczesne procesory. Będzie też inaczej korzystał z pamięci oraz wykorzystywał technologię opartą na sztucznej inteligencji.

– Zakładamy, że do połowy 2021 r. w ramach projektu HIVE powstanie 16-węzłowa platforma demonstracyjna, której wydajność będzie 1000-krotnie wyższa od najlepszych współczesnych rozwiązań – mówi Dhiraj Mallick, wiceprezes Data Center Group i dyrektor intelowskiej Innovation Pathfinding and Architecture Group.

„Procesor analizy wykresów" HIVE ma rozpoznawać ukryte relacje przyczynowe i dane historyczne. Będzie w stanie przedstawiać graficznie związki między informacjami o wiele skuteczniej niż tradycyjne techniki przetwarzania danych. Analizowane mogą być interakcje między osobami a pozornie odległymi zjawiskami, np. częstotliwość wizyt u lekarzy w różnych kontekstach, takich jak środowisko geograficzne. Albo jaki związek mogą mieć media społecznościowe z konfliktami regionalnymi.

Jeśli projekt HIVE się powiedzie, umożliwi interpretację ważnych powiązań między informacjami w czasie rzeczywistym, a nie po fakcie. Pojawią się precyzyjne prognozy zmian klimatycznych, wykryte zostaną wczesne oznaki epidemii eboli, pierwsze cyfrowe ślady działania cyberprzestępców, a nawet planów przeprowadzenia ataku, zanim on nastąpi.