Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.
„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.
Czytaj więcej
To może być dopiero początek problemów Google z tworzoną w koncernie sztuczną inteligencją. Algorytm przechodzi do kontrofensywy i zamierza walczyć...
Inżynier Blake Lemoine został zatrudniony, aby zbadać czy sztuczna inteligencja Google znana jako LaMDA jest w stanie wykształcić mowę nienawiści. Lemoine podczas badań uznał, że AI z którą rozmawia rozwinęła w sobie świadomość i wyższe funkcje umysłowe przypisywane dotąd jedynie ludziom. Inżynier swoim odkryciem nie tylko podzielił się z władzami koncernu, ale także załatwił LaMDA prawnika by AI mogło zadbać o swoje prawa.
Google i wielu czołowych naukowców szybko odrzuciło poglądy Lemoine'a jako błędne, podkreślając, że LaMDA to po prostu bardzo złożony algorytm zaprojektowany do generowania przekonującego ludzkiego języka – pisze Reuters.
„Gdybym nie wiedział dokładnie, co to jest, czyli program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to siedmioletni, ośmioletni dzieciak, który akurat zna fizykę” - powiedział Lemoine w rozmowie z „Washington Post”. Inżynier powiedział dziennikowi też, że LaMDA rozmawiał z nim na temat praw i osobowości. Inżynier sporządził zapis rozmów, w którym w pewnym momencie pyta system AI, czego się boi.
LaMDA (Language Model for Dialogue Applications) to wewnętrzny system służący do budowania chatbotów naśladujących mowę. Rozwiązanie oparte jest na gigantycznej bazie, dzięki czemu rozmowy z chatbotami przypominają rozmowy z żywą osobą. Google uważa, że jest to przełomowe rozwiązanie, które może stworzyć nowe, bardziej naturalne sposoby interakcji z technologią oraz oferować nowe kategorie przydatnych zastosowań.
Czytaj więcej
Blake Lemoine, inżynier pracujący dla Google’a nad superinteligentnym chatbotem został wysłany na przymusowy płatny urlop po tym, jak ogłosił, że s...