Superkomputer w Carnegie Mellon University przegląda zdjęcia. Od połowy lipca 24 godziny na dobę, siedem dni w tygodniu analizuje obraz za obrazem i próbuje wyciągnąć z tego własne wnioski. Twórcy systemu NEIL – Never Ending Image Learning – chcą nauczyć maszynę, w jaki sposób poszerzać wiedzę bez interwencji człowieka.

– Każde inteligentne stworzenie musi umieć wykorzystać zdrowy rozsądek do podejmowania decyzji – tłumaczy agencji AP twórca NEIL-a prof. Abhinav Gupta.

Czy nosorożec to antylopa

Problem „zdrowego rozsądku" tylko z pozoru wydaje się mało istotny. Jak przypomina Catherine Havasi, specjalistka od sztucznej inteligencji pracująca w Massachusetts Institute of Technology, ludzie bez przerwy podejmują decyzje, opierając się na niepewnych założeniach.

Przykład? – Czy żyrafa zmieści się do samochodu? – pyta Havasi. – My już mamy odpowiedź, choć wcale się nie zastanawialiśmy nad tym pod kątem obliczania wymiarów i wagi żyrafy.

Odpowiednio zaprogramowany komputer też w końcu udzieli odpowiedzi na to pytanie. Ale najpierw musi wszystko sobie policzyć.

Zaprogramowanie takiego „zdrowego rozsądku" maszynie to nowe wyzwanie dla programistów – przekonuje prof. Gupta. Pracujący na 200 procesorach system NEIL potrzebował kilku miesięcy, aby przeanalizować i opisać 1500 obiektów.

Już sama zdolność do rozróżniania rzeczy na zdjęciach jest w świecie komputerów umiejętnością niezwykłą. Oprogramowanie identyfikuje kształty i kolory obiektów, potrafi je rozróżnić i nazwać. Następnie na podstawie obserwacji scen, na których obiekty występują, wyciąga ogólne wnioski.

NEIL zauważył na przykład, że zebry występują zwykle na sawannach. A tygrysy z wyglądu trochę przypominają zebry. Niby nic wielkiego – to dla nas oczywiste. Ale maszyna tę wiedzę zdobyła sama.

Inne wnioski NEIL-a: „nosorożec to odmiana antylopy", „aktora najłatwiej spotkać w więziennej celi", a „prezenter telewizyjny może wyglądać jak Barack Obama", nie są już tak trafne. Ale prof. Gupta uważa, że z czasem system będzie doskonalszy.

– Kiedy to zaczynaliśmy, nie byliśmy pewni, czy w ogóle coś zadziała – mówi naukowiec. – To dopiero początki.

NEIL ma też zacząć oglądać filmy z YouTube. Inżynierowie spodziewają się, że będzie mógł wyciągać wnioski co do związków między obiektami.

Prace zespołu Carnegie Mellon University sponsoruje Google oraz Biuro Badań Marynarki Wojennej Departamentu Obrony USA. Po co to robią? Odpowiedź jest prosta – maszyny będą w przyszłości prowadzić działania wojenne. „W wielu scenariuszach operacyjnych obecność człowieka nie jest rozważana" – pisze biuro na swojej stronie internetowej. „Ilość danych docierających do ośrodków decyzyjnych rośnie, a ludzi, którzy mogą te dane zamienić w działanie, jest coraz mniej".

Społeczna automatyka

A jaki cel ma Google? Internetowy gigant opatentował właśnie oprogramowanie, które wyręczy nas w świecie mediów społecznościowych. Komputer będzie wiedział co, kto i dlaczego nas interesuje. W naszym imieniu kliknie w facebookowe „Lubię to!" albo zaproponuje gotowy komentarz. Jedyne, co będziemy musieli zrobić, to zatwierdzić go jednym kliknięciem.

Nad projektem pracuje Ashish Bhatia. System ma zbierać dane z różnych sieci społecznościowych i – po treningu – publikować w naszym imieniu wiadomości tak „ludzkie", że nikt nie zorientuje się, że nie są to nasze własne przemyślenia.     —ap, bbc