Pojawienie się chatGPT pod koniec października ubiegłego roku wywołało falę fascynacji i podziwu w świecie nowych technologii. Oto sztuczna inteligencja (AI) udowodniła, że potrafi zastąpić człowieka we wszystkich pracach intelektualnych z niezwykłą skutecznością, będąc niejednokrotnie lepszą od człowieka. Pisze eseje w dowolnym języku i na każdy temat, wiersze w stylu ulubionego poety, książki, komponuje muzykę, rozwiązuje zadania matematyczne, a w dodatku błyskawicznie koduje.

Z testowego narzędzia skorzystało milion użytkowników na świecie w pięć dni po jego udostępnieniu. Efekt piorunujący i nieosiągnięty dotychczas przez żadną inną aplikację.

Na horyzoncie komercjalizacja

Fascynacji towarzyszą ludzkie emocje – od nadziei na rychłe zyski po strach przed bezpowrotną utratą świata, który nie jest idealny, ale dobrze nam znany. W kapitalizmie żadna innowacja, która zastępuje stary porządek w opisanym w 1939 r. przez ekonomistę Josepha Schumpetera procesie twórczej destrukcji, nie rodzi się dla chwały, ale dla zysku. Tak samo jest z chatGPT.

Założone w 2015 roku w San Francisco przez Elona Muska, Grega Brockmana, Ilyę Sutskevera, Wojciecha Zarembę i Sama Altmana OpenAI początkowo deklarowało się jako nienastawione na zysk laboratorium zainteresowane rozwojem technologii wyłącznie dla dobra ludzkości. Strategia zmieniła się po 2019 roku, kiedy prace nad AI zaczęły wyglądać obiecująco od strony ich komercjalizacji i kiedy pierwszy miliard dorzucił Microsoft (głównie w mocach obliczeniowych swojej chmury).

W styczniu 2023 r. „Wall Street Journal” podaje szacowaną wycenę OpenAI na 23 mld dolarów, prezes Sam Altman obiecuje 1 mld dolarów przychodów w 2024 r., a Microsoft bez najmniejszego wahania inwestuje w firmę mającą dotychczas zaledwie kilkunastomilionowe obroty kolejne 10 mld dolarów w zamian za 49 proc. akcji. ChatGPT zelektryzował świat i stał się zapowiedzią zmian przypominających wprowadzenie maszyn parowych w fabrykach pod koniec XVIII wieku.

Popłoch i obawy

W związku z tym wywołał strach, zwłaszcza wśród programistów i nauczycieli. W styczniu 2023 r. Departament Edukacji Nowego Jorku zablokował możliwość testowania narzędzia we wszystkich szkołach. Uniwersytety na całym świecie w trybie pilnym uruchomiły zespoły badawcze, które mają dać odpowiedź, co dalej zrobić z narzędziem, które wywraca do góry nogami cały dotychczasowy paradygmat edukacji opartej na wyuczeniu studenta i weryfikacji jego wiedzy, a nie na sprawdzaniu prac wygenerowanych na zamówienie przez sztuczną inteligencję. Programiści, w obawie przed utratą pracy i prestiżu, namawiają się w sieci, jak zhakować to coś, co podważa ich dotychczasowy status, a to już przypomina brutalne ataki luddystów na pierwsze maszyny parowe.

Choć młoda i jeszcze niedoskonała, jak mówią twórcy, ale AI ogrywa wszystkich, jak komputer Deep Blue Kasparowa w szachy. Badacze z Northwestern University sprawdzili, czy profesjonalni recenzenci naukowi odróżnią medyczne artykuły pisane przez chatGPT od prac prawdziwych uczonych. Nie odróżnili.

Potencjalny rywal wyszukiwarki

Wielkim przegranym w starciu z chatGPT może być Google, który w inteligentnym asystencie odpowiadającym szybko niemal na każdy problem widzi autentyczne zagrożenie dla swojej wyszukiwarki treści. Dlatego w firmie wprowadzono czerwony alert w odpowiedzi na pojawienie się chatGPT, ale też zintensyfikowano prace nad dalszym rozwojem własnego chatbota laMDA, które trochę wstrzymywano, widząc w nim zagrożenie kanibalizacją podstawowego swojego produktu, wyszukiwarki, która generuje największe dochody z reklam.

Jak wykorzystać nowe narzędzie

Nie warto krytykować niedoskonałości chatGPT-3, których nie brakuje, ponieważ niebawem będzie doskonalsza wersja GPT-4. Nawet jeśli dziś AI karmiona danymi historycznymi nie podaje wyników wczorajszego meczu ani nie informuje na bieżąco o opóźnieniach pociągów, to błyskawicznie to nadrobi.

Dyskusję należałoby skierować w stronę etycznego wykorzystania tego narzędzia dla dobra wszystkich, a także uczenia studentów współpracy z AI i krytycznego myślenia, które jest pomocne w weryfikowaniu błędów formalnych czy skrzywienia algorytmicznego charakterystycznego dla systemów. Niezależnie od tego, czy będzie to chatGPT, czy konkurencyjne wobec niego produkty, takie jak Claude firmy Anthropic, laMDA, Alexa, Siri czy inne.

Zakazać czy wręcz przeciwnie?

Niektóre uczelnie na świecie zapowiedziały, że wobec braku możliwości weryfikacji oryginalnego autorstwa przedstawianych obecnie prac i ograniczonego zaufania do studentów będą zaliczać tylko w formie tradycyjnych egzaminów albo ustnych prezentacji. Przy masowości kształcenia – obecnie na świecie jest ponad 220 mln studentów – to rozwiązanie jest mało realistyczne, choć niewątpliwie pożądane.

Musimy raczej myśleć, jak zaprząc AI do procesu kształcenia i do nauki, jak wykorzystać jej moc, nie zakazując tego fascynującego narzędzia, ale wręcz przeciwnie, otwierając szeroko okna na jej świeży powiew. Jak przygotować się na tę zmianę od strony formalnoprawnej i organizacyjnej? Jak dobrze urządzić nowy świat, który właśnie nadszedł?

Prof. dr hab. Grzegorz Mazurek jest rektorem Akademii Leona Koźmińskiego.

Sztucznej inteligencji poświęcamy także najnowszy numer magazynu „Plus Minus”.