No to nie wymieniajmy mózgu. Zostawmy go i wybudujmy sztucznego człowieka, którym zarządzałby prawdziwy żywy mózg. Czy to by działało?
Z technicznego punktu widzenia sądzę, że tak.
Cały czas mówimy, że niestety sztucznego mózgu najprawdopodobniej nie uda nam się stworzyć, skonstruować w jakiejkolwiek przewidywalnej przyszłości, ale przecież w życiu codziennym lepiej się sprawdza podejście racjonalne, takie, w którym robot lepiej funkcjonuje niż człowiek.
Odpowiednio zaprogramowany robot może działać precyzyjniej, dokładniej, bardziej niezawodnie niż człowiek. Ale czy każda praca tego wymaga? Może praca powtarzalna tak, ale tę już dzisiaj wykonują w dużej mierze roboty. Robotów nie ma jednak wśród naukowców, dziennikarzy, malarzy, rzeźbiarzy i muzyków. Nie ma i nie będzie, bo tutaj podstawą jest kreatywność, a maszyny nie są kreatywne. Jeżeli chcielibyśmy z robota uczynić zastępczą matkę lub opiekunkę...
... ilość przytuleń w ciągu doby można zaprogramować, a głównym powodem błędów wychowawczych jest to, że człowiek traci cierpliwość i daje się wyprowadzić z równowagi, czego robot by nigdy nie zrobił.
Ilość przytuleń można zaprogramować, ale miłości, wyrozumiałości, empatii już nie. Matka, czy rodzic w ogóle, musi być stanowcza, ale czasami umieć ustąpić i wybaczyć. Czy robot będzie to potrafił? Nie sądzę, bo tych rzeczy nie da się opisać językiem matematyki, a maszyny tylko taki język rozumieją. To oczywiście nie znaczy, że nie mamy pracy dla robotów. W tej chwili zaczyna się stosować roboty chirurgiczne, argumentując tym, że taka maszyna nie myli się, nie drżą jej dłonie i działa znacznie precyzyjniej niż człowiek. Tylko proszę zauważyć, że to nie robot studiuje medycynę i praktykuje na sali chirurgicznej, tylko człowiek. A gdy już posiądzie odpowiednią wiedzę, zasiada za panelem sterującym i kieruje chirurgicznym robotem. To nie robot operuje, lecz człowiek. Robot tylko trzyma skalpel. Także dlatego, że chirurg, czy ogólnie lekarz, także musi być twórczy, kreatywny – bo każdy pacjent jest inny i każdy proces leczenia jest inny. Robot w taki sposób twórczy nigdy nie będzie.
Sieci neuronowe. Co to takiego?
To są sztuczne twory, które w pewnym stopniu, ale tylko w pewnym stopniu, naśladują rzeczywiste biologiczne struktury neuronowe, czyli fragmenty ludzkiego czy zwierzęcego mózgu.
Czym się różni sieć neuronowa od zwykłego procesora?
Przede wszystkim zdolnością uczenia się. Zwykły procesor, żeby coś wykonał, musi zostać zaprogramowany. Trzeba krok po kroku przewidzieć jego działanie i określić warunki tego działania. Natomiast sieć neuronowa ma zdolność do uczenia się, i to nawet na dwa sposoby. Potrafi uczyć się metodą naśladowania zachowań, które obserwuje u swojego nauczyciela, ale potrafi także sama się doskonalić. Sieć sama buduje wiedzę, sama formułuje hipotezy, sama tworzy pojęcia, kategoryzuje świat, próbuje go uporządkować i robi to dosyć skutecznie. Mało tego, pewne sieci samouczące się potrafią odkrywać wiedzę, której nie przewiduje, wręcz nawet nie podejrzewa, człowiek, który ich używa i programuje.
Chciałem zapytać o rozróżnianie – w kontekście maszyn oczywiście – między dobrem a złem, ale zastanawiam się, czy znowu nie wchodzimy w tę jaźń, świadomość i to wszystko, co jest niedefiniowalne.
Robot czy maszyna, bo – jak rozumiem – rozmawiamy także o programach komputerowych, będzie przyjmować punkt widzenia swojego konstruktora. Ale wtedy robot nie ma problemu rozróżniania, co dobre, a co złe, bo o tym wcześniej zadecydował konstruktor. Robot nie ma rozterek, bo on wie, co jest dobre. Ma to, jak mówimy w informatyce, zaszyte w swoim programie. Czy maszyna będzie kiedykolwiek zdolna do odcięcia tej pępowiny, która łączy ją z konstruktorem? Czy będzie potrafiła wystąpić przeciwko niemu, bo z jej analizy wynikać będzie, że to będzie mniejsze zło? Nie podejmuję się w tym momencie podać definitywnych rozstrzygnięć, bo ich nie znam. Zastanawiam się tylko, czy konstruowanie takich maszyn wyposażonych w sumienie i moralność, jeżeli kiedykolwiek będzie możliwe, będzie leżało w interesie ich twórców?
Czy może zdarzyć się tak, że choć programista stworzy neutralną czy dobrą „duszę" robota, później w wyniku procesów, które są inicjowane przez wewnętrzną inteligencję maszyny, procesów, które są poza twórcą, ta dusza ulega zniszczeniu?
To jest możliwe. To jest znana pułapka sztucznej inteligencji. Jeżeli buduje się urządzenia o ściśle zaprogramowanych, z góry określonych funkcjach, to mamy maszynę absolutnie posłuszną, ale tępą, głupią i nieudolną. Nieudolną, bo ograniczoną. Dajemy więc maszynie inteligencję. I wtedy problem ograniczoności znika albo schodzi na dalszy plan. Maszyna zaczyna się uczyć i dostosowywać do naszych oczekiwań. Staje się wszechstronna. Ale w tym momencie otwieramy puszkę Pandory, bo uczyć się można dobrego i złego. I pojawia się obawa, że produkt finalny, będący wypadkową początkowych zamierzeń inżyniera i końcowych efektów uczenia, może być bardzo daleki od tego, co było w zamierzeniach. To jest możliwe, ale staramy się ograniczyć to ryzyko, tak jak w każdej technice.
Czy warto podejmować takie ryzyko?
W pewnych momentach nie mamy wyboru. Jeśli chcemy osiągać coraz wyżej położone cele, musimy tworzyć maszyny zdolne do tego, aby same się do tych celów wspinały – głównie przez uczenie się. Jednak uczenie się zakłada indeterminizm końcowego wyniku. Maszyny zdolne do uczenia się mogą się więc nauczyć czegoś, co przekona je do działania innego niż zamierzone. To nie jest tylko cecha inteligentnych maszyn, ale także ludzi.
Wywiad jest fragmentem opublikowanej przez wydawnictwo Demart książki Tomasza Rożka „Nauka – po prostu. Wywiady z wybitnymi". To zbiór rozmów z polskimi naukowcami, ekspertami w takich dziedzinach, jak genetyka, fizyka i kosmos, neurologia i psychologia, cybernetyka, komunikacja i Internet, nanotechnologia oraz klimatologia.