OpenAI przekonuje, że model AI stworzony przez nią jest tak dobry, a ryzyko wykorzystania jej w złym celu jest tak duże, że organizacja nie opublikuje wyników swoich prac, aby "dać więcej czasu na przedyskutowanie skutków przełomu technologicznego".
GPT2 to generator tekstów. Program najpierw jest zasilany tekstem - może to być kilka słów, może być cała strona maszynopisu, a następnie ma napisać dalszą część w oparciu o przewidywania co do tego co powinno się w niej znaleźć. System - jak zapewniają jego twórcy - przesuwa granice tego, co obecnie uznaje się za technologicznie możliwe, zarówno pod względem jakości otrzymanego tekstu, jak i szerokiej możliwości zastosowania.
GPT2 jest w stanie zachować styl i temat tekstu. Ma być też pozbawiony wad wcześniejszych generatorów tego typu, które potrafiły "gubić wątek", albo tworzyć nienaturalne zdania wielokrotnie złożone.
"Guardian" pisze, że po dostarczeniu programowi fragmentu artykułu na temat brexitu, GPT2 dopisał dalszą część artykułu cytując m.in. Jeremy'ego Corbyna, wspominając o problemie granicy w Irlandii i cytując wypowiedzi rzecznika Theresy May.
GPT2 ma korzystać z niespotykanie dużej bazy 10 milionów artykułów, zawierających 40 gigabajtów treści. Dzięki tak dużej bazie danych GPT2 ma "lepiej rozumieć tekst pisany". Ponadto GPT2 ma mieć szerokie zastosowanie - może tłumaczyć tekst, podsumowywać posiadane informacje i "zaliczać" testy z rozumienia czytanych treści.