Google zwolniło inżyniera, który twierdził, że chatbot ma świadomość

Google potwierdził, że zwolnił starszego inżyniera oprogramowania, który twierdził, że chatbot sztucznej inteligencji (AI) firmy LaMDA był samoświadomą osobą.

Publikacja: 23.07.2022 15:33

Google zwolniło inżyniera, który twierdził, że chatbot ma świadomość

Foto: Adobe Stock

Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.

„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.

Czytaj więcej

Sztuczna inteligencja walczy z Google. Wynajęła adwokata

Inżynier Blake Lemoine został zatrudniony, aby zbadać czy sztuczna inteligencja Google znana jako LaMDA jest w stanie wykształcić mowę nienawiści. Lemoine podczas badań uznał, że AI z którą rozmawia rozwinęła w sobie świadomość i wyższe funkcje umysłowe przypisywane dotąd jedynie ludziom. Inżynier swoim odkryciem nie tylko podzielił się z władzami koncernu, ale także załatwił LaMDA prawnika by AI mogło zadbać o swoje prawa.

Google i wielu czołowych naukowców szybko odrzuciło poglądy Lemoine'a jako błędne, podkreślając, że LaMDA to po prostu bardzo złożony algorytm zaprojektowany do generowania przekonującego ludzkiego języka – pisze Reuters.

„Gdybym nie wiedział dokładnie, co to jest, czyli program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to siedmioletni, ośmioletni dzieciak, który akurat zna fizykę” - powiedział Lemoine w rozmowie z „Washington Post”. Inżynier powiedział dziennikowi też, że LaMDA rozmawiał z nim na temat praw i osobowości. Inżynier sporządził zapis rozmów, w którym w pewnym momencie pyta system AI, czego się boi.

LaMDA (Language Model for Dialogue Applications) to wewnętrzny system służący do budowania chatbotów naśladujących mowę. Rozwiązanie oparte jest na gigantycznej bazie, dzięki czemu rozmowy z chatbotami przypominają rozmowy z żywą osobą. Google uważa, że jest to przełomowe rozwiązanie, które może stworzyć nowe, bardziej naturalne sposoby interakcji z technologią oraz oferować nowe kategorie przydatnych zastosowań.

Czytaj więcej

Bot zyskał świadomość? Google musiało zwolnić jego twórcę

Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.

„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Krzysztof Gawkowski: Nikt nie powinien mieć TikToka na urządzeniu służbowym
Biznes
Alphabet wypłaci pierwszą w historii firmy dywidendę
Biznes
Wielkie firmy zawierają sojusz kaucyjny. Wnioski do KE i UOKiK
Biznes
KGHM zaktualizuje strategię i planowane inwestycje
Biznes
Rośnie znaczenie dobrostanu pracownika