Buckminster Fuller, XX-wieczny amerykański wynalazca, twierdził, że do 1900 r. wiedza ludzka podwajała się co 100 lat, a od 1945 co 25 lat. Dziś – co 13 miesięcy, a według naukowców z IBM wkrótce będzie się podwajać co 12 godzin.
Już obecnie sztuczna inteligencja (AI) potrafi nieźle synetyzować rozproszony dorobek naukowy świata, a to stwarza rewolucyjne perspektywy. Wiele uniwersytetów stworzyło grupy badawcze, które zajmują się technikami uczenia maszynowego, niezbędnymi do zapanowania nad niebywałym przyrostem wiedzy.
Nauka przyspieszy
W maju 2020 r. firma OpenAI przedstawiła GPT-3 – Generative Pre-trained Transformer 3, czyli nową wersję swojego programu do pisania tekstów i konwersowania z ludźmi. Był on trenowany na bilionie słów ze stron internetowych, całej zawartości Wikipedii i tysiącach książek opisujących stan ludzkiej wiedzy w wielu dziedzinach. I jego możliwości są niesamowite.
GPT-3 „rozumie" kontekst między wyrazami i zdaniami, tworzy nowe zdania, akapity i całe teksty na zadany temat. Można mu zadać dowolne pytanie, np. medyczne. Zamiast linku do strony internetowej dostaniemy dokładną odpowiedź z opisem mechanizmu biologicznego, który za tym stoi. GPT-3 pisze też wiersze, powieści, teksty piosenek i komponuje do nich muzykę, tworzy grafiki. To dziś najbardziej rozwinięty program sztucznej inteligencji na świecie, a wzmocnienie jego możliwości o 116 razy w stosunku do poprzedniej wersji zajęło firmie OpenAI tylko dwa lata. Właściwości GPT-3 łatwo wykorzystać w nauce.
Naukowcy od lat używają AI w tych badaniach naukowych, które wymagają przetwarzania wielkiej ilości danych. Np. IBM udostępnia wszystkim zainteresowanym IBM RXN, interaktywne narzędzie do przewidywania wyników i odtwarzania przebiegu milionów reakcji chemicznych i syntetyzowania cząsteczek. To pierwsza bezpłatna usługa sieciowa do symulowania reakcji chemicznych.