OpenAI boi się sztucznej inteligencji, którą stworzyła

OpenAI, organizacja badawcza nonprofit wspierana przez Elona Muska, nie upubliczni wyników prac nad nowym modelem sztucznej inteligencji nazwanym GPT2, systemem zdolnym tworzyć teksty informacyjne, a także fikcyjne historie. Badacze obawiają się, że efekt ich prac może zostać wykorzystany w niewłaściwy sposób.

Aktualizacja: 15.02.2019 08:55 Publikacja: 15.02.2019 07:47

OpenAI boi się sztucznej inteligencji, którą stworzyła

Foto: stock.adobe.com

OpenAI przekonuje, że model AI stworzony przez nią jest tak dobry, a ryzyko wykorzystania jej w złym celu jest tak duże, że organizacja nie opublikuje wyników swoich prac, aby "dać więcej czasu na przedyskutowanie skutków przełomu technologicznego".

GPT2 to generator tekstów. Program najpierw jest zasilany tekstem - może to być kilka słów, może być cała strona maszynopisu, a następnie ma napisać dalszą część w oparciu o przewidywania co do tego co powinno się w niej znaleźć. System - jak zapewniają jego twórcy - przesuwa granice tego, co obecnie uznaje się za technologicznie możliwe, zarówno pod względem jakości otrzymanego tekstu, jak i szerokiej możliwości zastosowania.

GPT2 jest w stanie zachować styl i temat tekstu. Ma być też pozbawiony wad wcześniejszych generatorów tego typu, które potrafiły "gubić wątek", albo tworzyć nienaturalne zdania wielokrotnie złożone.

"Guardian" pisze, że po dostarczeniu programowi fragmentu artykułu na temat brexitu, GPT2 dopisał dalszą część artykułu cytując m.in. Jeremy'ego Corbyna, wspominając o problemie granicy w Irlandii i cytując wypowiedzi rzecznika Theresy May.

GPT2 ma korzystać z niespotykanie dużej bazy 10 milionów artykułów, zawierających 40 gigabajtów treści. Dzięki tak dużej bazie danych GPT2 ma "lepiej rozumieć tekst pisany". Ponadto GPT2 ma mieć szerokie zastosowanie - może tłumaczyć tekst, podsumowywać posiadane informacje i "zaliczać" testy z rozumienia czytanych treści.

Badacze podkreślają, że możliwości GPT2 są tak duże, że muszą oni obecnie dokładnie sprawdzić granice tych możliwości, aby przewidzieć ewentualne negatywne skutki zastosowania GPT2.

OpenAI przekonuje, że model AI stworzony przez nią jest tak dobry, a ryzyko wykorzystania jej w złym celu jest tak duże, że organizacja nie opublikuje wyników swoich prac, aby "dać więcej czasu na przedyskutowanie skutków przełomu technologicznego".

GPT2 to generator tekstów. Program najpierw jest zasilany tekstem - może to być kilka słów, może być cała strona maszynopisu, a następnie ma napisać dalszą część w oparciu o przewidywania co do tego co powinno się w niej znaleźć. System - jak zapewniają jego twórcy - przesuwa granice tego, co obecnie uznaje się za technologicznie możliwe, zarówno pod względem jakości otrzymanego tekstu, jak i szerokiej możliwości zastosowania.

2 / 3
artykułów
Czytaj dalej. Kup teraz
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska
Materiał Promocyjny
Dell Technologies: nie ma branży czy przedsiębiorstwa, które może funkcjonować bez nowoczesnych technologii