W środę rano nieoczekiwanie firma OpenAI poinformowała, że na jej czele znów stanie Sam Altman. Ten sam, który w piątek został z OpenAI wyrzucony, co doprowadziło do gigantycznego kryzysu – nie tylko wizerunkowego. Dość przypomnieć, że 500 z 700 specjalistów od AI pracujących w tej firmie zagroziło odejściem, jeśli Altman nie zostanie przywrócony na stanowisko. Ten szantaż, jak widać, zadziałał, w zarządzie firmy też doszło zmian.
Dlaczego Sam Altman w ogóle został zwolniony z OpenAI
W przestrzeni publicznej pojawiło się pod adresem Altmana oskarżenie, że dość agresywnie prze do szybkiego rozwoju nowych technologii, nie bacząc na etyczne zastrzeżenia. Sam Altman kilka dni przed feralnym piątkiem, gdy został nieoczekiwanie odwołany, zapowiadał wypuszczenie wersji AI, która zaskoczy wszystkich swoimi możliwościami. Stąd spekulacje, że napięcie między radą dyrektorów a Altmanem miało dotyczyć rozwoju superinteligencji zwanej Ogólną Sztuczną Inteligencją (AGI), która różniłaby się od sztucznej inteligencji mniej więcej tak samo, jak smartfon różni się od kalkulatora. Kolejne listy protestacyjne ekspertów i futurologów dotyczyły m.in. okiełznania rozwoju prac nad AGI, co do której istnieją poważne wątpliwości, czy dałaby się w pełni kontrolować człowiekowi.
Czytaj więcej
Firma, która stworzyła ChatGPT, przywróci Sama Altmana na stanowisko dyrektora generalnego i powoła nowych członków zarządu po tym, jak prawie wszyscy pracownicy zagrozili odejściem w związku z jego wyrzuceniem. Prace nad AI mogą przyspieszyć.
Naukowcy w przypadku AI zmagają się bowiem z czymś, co nazywa się zjawiskiem czarnej skrzynki. Możemy nauczyć algorytmy tego, by robiły pewne rzeczy. Wpisujemy zapytanie do czata, system udziela nam odpowiedzi, ale nie rozumiemy do końca, w jaki sposób podejmuje on decyzję o tym, jakiej odpowiedzi nam udzielić. Im system będzie bardziej złożony, tym zjawisko jest silniejsze.
Upraszczając, potrafimy dziś w pewnej mierze okiełznać AI na obecnym poziomie rozwoju, ale jeśli zbudujemy modele bardziej rozwinięte, takie jak AGI, możliwości sztucznej inteligencji mogą zagrozić nam samym. Na przykład dziś potrafimy nakładać ograniczenia na ChatGPT. Zabronić mu odpowiadać na pytania o to, jak skonstruować bombę, czy dawać wskazówki, jak dokonać zamachu terrorystycznego albo popełnić samobójstwo. Niektórzy obawiają się, że nie będziemy tego potrafili zrobić, gdy skomplikujemy system.