fbTrack
REKLAMA
REKLAMA

Plus Minus

Szułdrzyński: Czy robot może być zbawiony

Fotorzepa, Maciej Zienkiewicz
Nazywa się Fran Pepper, ma 120 cm wzrostu, waży 28 kg. Burmistrz belgijskiego miasta Haaselt pod koniec stycznia osobiście podpisała akt jej urodzenia.

Nie byłoby w tym może nic nadzwyczajnego, gdyby nie fakt, że Fran jest... robotem (choć humanoidalnym). A w dokumencie stanu cywilnego jako rodziców wpisano uczonych z miejscowego uniwersytetu, którzy ją skonstruowali.

Ta historia nie jest jednak wcale tak zdumiewająca, jeśli przypomnimy sobie, że w połowie ubiegłego roku komisja ds. prawnych Parlamentu Europejskiej zastanawiała się nad stworzeniem statusu „osoby elektronicznej". Rozważano na przykład płacenie przez firmy, które zastępują ludzi robotami, specjalnych składek ubezpieczenia społecznego na rzecz bezrobotnych, którzy w efekcie rozwoju technologicznego tracić będą pracę.

Problem jest jednak znacznie poważniejszy niż tylko kwestie rynku pracy. Autorzy koncepcji „osoby elektronicznej" zastanawiali się np. nad problemem odpowiedzialności cywilnej za działania robotów. Europosłowie zwracali uwagę na to, że produkcja coraz bardziej zaawansowanych robotów może pociągać za sobą poważne problemy etyczne.

Nie trzeba też było długo czekać na potwierdzenie się obaw inicjatorów tego pomysłu. W ostatnim tygodniu naukowcy poinformowali, że mają problem ze sztuczną inteligencją, którą nauczyli prostej gry elektronicznej polegającej na „zbieraniu jabłek". Maszyna szybko bowiem się nauczyła, że lepszą taktyką jest eliminowanie konkurentów (za pomocą strzałów laserem), niż mozolne zbieranie punktów.

To zaś oznacza, że kwestia dotycząca tego, co będzie, jeśli roboty wyposażone w sztuczną inteligencję w rzeczywistości staną się agresywne, przestaje być absurdalna. Powstaje bowiem fundamentalne pytanie etyczne: czy robot może czynić zło?

Dotychczas nauki o moralności przekonywały, że tylko obdarzony wolną wolą człowiek może być podmiotem etycznym, a więc istotą zdolną do czynienia dobra lub zła. Mówienie o tym, że ptak, ryba lub chomik robią coś złego, nie ma sensu, choć niektóre doktryny przekonywały, że trzeba rozszerzyć kategorie etyczne na wszystkie istoty zdolne do odczuwania bólu. Pies nie może zatem zrobić nic złego, złem jest jednak zadawanie psu niepotrzebnego bólu (bo już ukłucie przez weterynarza złem przecież nie jest).

W przypadku robotów dochodzimy do naprawdę poważnych problemów. Kto będzie winien, jeśli wyposażona w sztuczną inteligencję maszyna wyrządzi człowiekowi krzywdę, lub – nie daj Boże – człowieka zabije? Biorąc pod uwagę błyskawiczny rozwój technologii, zagadnienie wydaje się tyleż ważne, co pasjonujące.

Stanisław Lem zastanawiał się, jak można przenieść ziemskie kategorie etyczne na inne galaktyki. Stawiał więc na przykład pytanie o to, czy mieszkańcy innych planet mogą być zbawieni. Jeśli uznamy, że podmiotem etycznym, a więc bytem zdolnym do podejmowania decyzji o dobru i złu, będzie sztuczna inteligencja, pytanie o to, czy robot może być zbawiony, wcale nie będzie pozbawione sensu.

Magazyn Plus Minus

PLUS MINUS


Prenumerata sobotniego wydania „Rzeczpospolitej”:


prenumerata.rp.pl/plusminus


tel. 800 12 01 95

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA
REKLAMA
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
REKLAMA
REKLAMA