Max Tegmark. Życie 3.0. Człowiek w erze sztucznej inteligencji

Ludzka wyjątkowość nie tylko wywoływała w przeszłości problemy, lecz także wydaje się zbędna dla rozkwitu człowieka.

Publikacja: 26.04.2019 17:00

Max Tegmark. Życie 3.0. Człowiek w erze sztucznej inteligencji

Foto: Rzeczpospolita

Jeśli jakiś przyszły system sztucznej inteligencji stanie się świadomy, to czego będzie subiektywnie doznawał? (...) Obecnie nie tylko brakuje nam teorii, która odpowiadałaby na to pytanie, ale też nie jesteśmy nawet pewni, czy odpowiedź ta jest logicznie możliwa. Jak w końcu mogłoby brzmieć satysfakcjonujące wyjaśnienie? Jak wytłumaczyć osobie niewidomej, jak wygląda kolor czerwony?

Na szczęście nasza obecna niezdolność do udzielenia pełnej odpowiedzi nie przeszkadza nam w udzieleniu odpowiedzi częściowych. Inteligentni Obcy badający ludzki układ czuciowy prawdopodobnie wywnioskowaliby, że kolorami są qualia (indywidualne przypadki doznania subiektywnego – red.) związane z każdym punktem na dwuwymiarowej powierzchni (nasze pole widzenia), podczas gdy dźwięki nie są odczuwane jako przestrzennie zlokalizowane, a bóle to qualia, które są odczuwane w różnych częściach ciała. Odkrycie, że siatkówki zawierają trzy rodzaje komórek stożkowych czułych na światło, pozwoliłoby im wywnioskować, iż doświadczamy trzech kolorów podstawowych i że wszystkie inne qualia kolorów są wynikiem ich połączenia. Mierząc, jak długo neurony przekazują informacje w mózgu, mogą stwierdzić, że doświadczamy nie więcej niż około dziesięciu świadomych myśli lub percepcji na sekundę i że oglądając filmy w telewizorze z prędkością 24 klatek na sekundę, odbieramy to nie jako sekwencję nieruchomych obrazów, ale jako ruch ciągły. Na podstawie pomiaru szybkości uwalniania się adrenaliny do krwiobiegu i czasu jej trwania, zanim ulegnie rozkładowi, można przewidzieć, że odczuwamy wybuchy gniewu, które rozpoczynają się w ciągu sekund, a trwają przez minuty.

Stosując podobne argumenty oparte na fizyce, możemy domyślać się pewnych aspektów tego, jak czułaby się sztuczna świadomość. Po pierwsze, obszar możliwych doznań sztucznej inteligencji jest ogromny w porównaniu z tym, czego my, ludzie, możemy doświadczać. Mamy jedną klasę qualiów dla każdego z naszych zmysłów, ale sztuczne inteligencje mogą mieć znacznie więcej rodzajów czujników i wewnętrznych reprezentacji informacji, należy więc unikać pułapki związanej z założeniem, że bycie sztuczną inteligencją musi być odczuwane podobnie jak bycie osobą.

Po drugie, sztuczna świadomość wielkości mózgu może mieć miliony razy więcej niż my doznań na sekundę, ponieważ sygnały elektromagnetyczne przemieszczają się z prędkością światła, miliony razy szybciej niż sygnały neuronowe. Jednak im większa sztuczna inteligencja, tym wolniejsze muszą być jej globalne myśli, aby dać informacji czas na przepływ pomiędzy wszystkimi jej częściami (...). Dlatego spodziewamy się, że sztuczna inteligencja „Gaja" wielkości Ziemi będzie miała tylko około dziesięciu świadomych doznań na sekundę, jak człowiek, a taka o rozmiarach galaktyki może mieć tylko jedną globalną myśl co 100 000 lat, a więc nie więcej niż około stu doznań w całej historii naszego Wszechświata! Dałoby to dużym sztucznym inteligencjom nieodpartą zachętę do przekazywania obliczeń najmniejszym podukładom zdolnym do radzenia sobie z nimi w celu przyspieszenia działań, podobnie jak nasz świadomy umysł przekazał mrugnięcie powieką małemu, szybkiemu i nieświadomemu podukładowi. Chociaż pisałem powyżej, że świadome przetwarzanie informacji w naszych mózgach wydaje się jedynie wierzchołkiem skądinąd nieświadomej góry lodowej, to powinniśmy się spodziewać, że sytuacja będzie jeszcze bardziej ekstremalna w wypadku dużych sztucznych inteligencji przyszłości: jeśli będą mieć pojedynczą świadomość, to prawdopodobnie nie będzie ona zdawać sobie sprawy z prawie całego procesu przetwarzania informacji odbywającego się wewnątrz niej. Co więcej, choć świadome doznania, jakie z niego wynikają, mogą być niezwykle złożone, to zachodzą w ślimaczym tempie w porównaniu z aktywnością jej mniejszych części.

Umysł podobny do ula

W istocie przypomina to wspomnianą już kontrowersję, czy części świadomego bytu mogą być też świadome. IIT (zintegrowana teoria informacji, oparta na dwóch aksjomatach: po pierwsze świadomość przesycona jest informacją, po drugie postrzeganie informacji to postrzeganie informacji w sposób zintegrowany – red.) tego nie przewiduje, co oznacza, że jeśli przyszła astronomicznie duża sztuczna inteligencja będzie świadoma, wówczas niemal całe jej przetwarzanie informacji będzie nieświadome. Zatem gdy cywilizacja mniejszych sztucznych inteligencji zwiększy swoje zdolności komunikacyjne do tego stopnia, że wyłoni się pojedynczy świadomy umysł podobny do ula, ich jednostkowe świadomości ulegną nagłej zagładzie. Jeśli zaś prognozy IIT są błędne, to taki umysł może współistnieć z całym wachlarzem mniejszych świadomych umysłów. Istotnie, można sobie nawet wyobrazić hierarchię świadomości zagnieżdżoną na wszystkich poziomach, od mikroskopowego do kosmicznego.

Jak zauważyliśmy powyżej, nieświadome przetwarzanie informacji w naszych ludzkich mózgach wydaje się związane z łatwym, szybkim i automatycznym sposobem myślenia, który psychologowie nazywają „Systemem 1". Na przykład System 1 może informować świadomość, że jego bardzo złożona analiza wizualnych danych wejściowych ustaliła, iż przybył wasz najlepszy przyjaciel, nie dając wam jednocześnie żadnego pojęcia, jak odbyło się obliczanie. Jeśli ów związek między układami a świadomością okaże się prawdziwy, to kuszące będzie uogólnienie tej terminologii na sztuczne inteligencje, co pozwoli określić wszystkie szybkie rutynowe zadania przekazywane nieświadomym podjednostkom mianem Systemu 1 sztucznej inteligencji. Natomiast wymagające wysiłku, powolne i kontrolowane globalne myślenie sztucznej inteligencji, gdyby było świadome, zakwalifikowalibyśmy jako jej System 2. My, ludzie, mamy również świadome doznania związane z tym, co nazywam „Systemem 0": surową bierną percepcją, która odbywa się nawet wtedy, gdy siedzimy bez ruchu lub myślenia i po prostu obserwujemy otaczający nas świat. Systemy 0, 1 i 2 wydają się coraz bardziej złożone, uderzające jest więc to, że tylko środkowy ma być nieświadomy. (...)

Niektóre aspekty subiektywnego doświadczenia wyraźnie wywodzą się z naszych ewolucyjnych korzeni, na przykład działania związane z instynktem samozachowawczym (jedzenie, picie, unikanie śmierci) i reprodukcją. Oznacza to, że powinna istnieć możliwość stworzenia sztucznej inteligencji, która nigdy nie dozna qualiów takich jak głód, pragnienie, strach czy pożądanie seksualne. Jak zauważyliśmy w ostatnim rozdziale, jeśli wysoce inteligentna sztuczna inteligencja jest tak zaprogramowana, aby mieć praktycznie jakikolwiek wystarczająco ambitny cel, prawdopodobnie będzie miała instynkt samozachowawczy, po to aby osiągnąć ten cel. Jeśli jednak owe twory będą członkami społeczeństwa sztucznej inteligencji, może im brakować naszego silnego ludzkiego strachu przed śmiercią: gdy tylko wykonają kopię zapasową, to mogą stracić jedynie wspomnienia zgromadzone od czasu ostatniego utworzenia kopii zapasowej, pod warunkiem że użyją oprogramowania do tworzenia kopii zapasowych. Ponadto umiejętność łatwego kopiowania informacji i oprogramowania pomiędzy sztucznymi inteligencjami prawdopodobnie zmniejszy silne poczucie indywidualności, tak charakterystyczne dla ludzkiej świadomości: różnice pomiędzy nami byłyby mniejsze, gdybyśmy mogli łatwo dzielić się wszystkimi wspomnieniami i umiejętnościami oraz je kopiować, tak więc grupa bliskich sztucznych inteligencji może czuć się bardziej jak jeden pojedynczy organizm o umyśle podobnym do ula.

Zwykłe maszyny?

Czy sztuczna świadomość czułaby, że ma wolną wolę? Zauważmy, że chociaż filozofowie od tysiącleci spierają się o to, czy my mamy wolną wolę, nie osiągając nawet konsensusu w sprawie tego, jak poprawnie zadać to pytanie, ja zadaję inne, na które prawdopodobnie łatwiej odpowiedzieć. Pozwólcie, bym was przekonał, że odpowiedź brzmi: „Tak, każdy świadomie podejmujący decyzję będzie subiektywnie czuł, że ma wolną wolę, niezależnie od tego, czy jest on tworem biologicznym, czy sztucznym". Decyzje mieszczą się w spektrum między dwiema skrajnościami:

1. Dokładnie wiemy, dlaczego dokonaliśmy tego konkretnego wyboru.

2. Nie mamy pojęcia, dlaczego dokonaliśmy tego konkretnego wyboru – czuliśmy się tak, jakbyśmy ni z tego, ni z owego wybrali losowo.

Dyskusje o wolnej woli zazwyczaj koncentrują się wokół walki o pogodzenie zorientowanego na cel zachowania decyzyjnego z prawami fizyki: jeśli wybieramy pomiędzy dwoma następującymi wyjaśnieniami tego, co zrobiliśmy, to które z nich jest poprawne: „Zaprosiłem ją na randkę, ponieważ bardzo mi się podobała" czy „Moje cząstki zmusiły mnie do tego, poruszając się zgodnie z prawami fizyki"? Z rozważań w ostatnim rozdziale wynika, że oba są poprawne: to, co czujemy jako zachowanie zorientowane na cel, może wyłonić się z pozbawionych celów deterministycznych praw fizyki. Dokładniej mówiąc, kiedy system (mózg lub sztuczna inteligencja) podejmuje decyzję typu 1, to oblicza, co zdecydować, za pomocą jakiegoś algorytmu deterministycznego, a powodem odczucia, że coś zdecydował, jest fakt, że uczynił to podczas obliczania. Co więcej, jak podkreśla Seth Lloyd, w informatyce istnieje słynne twierdzenie, zgodnie z którym dla prawie wszystkich obliczeń nie ma szybszego sposobu na określenie ich wyniku niż faktyczne ich wykonanie. Oznacza to, że zazwyczaj nie da się dowiedzieć, co zrobimy za sekundę, w czasie krótszym od sekundy, co umacnia nasze doznanie wolnej woli. Natomiast kiedy system (mózg lub sztuczna inteligencja) podejmuje decyzję typu 2, po prostu programuje swój umysł na oparcie decyzji na wyjściu jakiegoś podsystemu, który działa jak generator liczb losowych. (...)

Niektórzy ludzie mówią mi, że uważają przyczynowość za upokarzającą, że sprawia ona, iż ich procesy myślowe stają się nieistotne, i czyni z nich „zwykłe" maszyny. Jestem zdania, że takie negatywne nastawienie jest absurdalne i nieuzasadnione. Przede wszystkim nie ma nic „zwykłego" w mózgu człowieka, który z mojego punktu widzenia jest najbardziej wyrafinowanym obiektem fizycznym w naszym znanym Wszechświecie. Ponadto jaką alternatywę woleliby wybrać? Czy nie chcą, aby to ich własne procesy myślowe (obliczenia wykonywane przez mózgi) podejmowały decyzje? Ich subiektywne doświadczanie wolnej woli polega po prostu na tym, jak czują owe obliczenia od wewnątrz: nie znają wyniku obliczeń dopóty, dopóki obliczenia nie są skończone. To właśnie mamy na myśli, mówiąc, że obliczenie jest decyzją.

Czas na Homo sentiens

Zakończmy, wracając do punktu wyjścia tej książki: Jakiej przyszłości życia chcemy? W poprzednim rozdziale przekonaliśmy się, jak różne kultury świata poszukują przyszłości tętniącej pozytywnymi doświadczeniami, ale gdy szukamy konsensusu w sprawie tego, co należy uznać za pozytywne i jak znaleźć kompromis między tym, co dobre dla różnych form życia, pojawiają się fascynująco drażliwe kontrowersje. Nie pozwólmy, aby te kontrowersje odciągnęły nas od słonia w pokoju: nie może być pozytywnych doznań, jeśli w ogóle nie ma doznań, to znaczy, jeśli nie ma świadomości. Innymi słowy, bez świadomości nie może być szczęścia, dobra, piękna, znaczenia czy celu – tylko astronomiczne marnotrawstwo przestrzeni. To oznacza, że kiedy ludzie pytają o sens życia, tak jakby zadaniem kosmosu było nadanie sensu naszej egzystencji, to odwracają kota ogonem: „To nie Wszechświat nadaje sens istotom świadomym, ale istoty świadome nadają mu sens". A zatem pierwszym celem na naszej liście życzeń na przyszłość powinno być zachowanie (i miejmy nadzieję, poszerzenie) biologicznej i/lub sztucznej świadomości w kosmosie zamiast doprowadzania do tego, by wymarła.

Jeśli uda nam się to osiągnąć, to jak my, ludzie, będziemy się czuli, współistniejąc z coraz inteligentniejszymi maszynami? Czy przeszkadza wam nieuniknione powstanie sztucznej inteligencji, a jeśli tak, to dlaczego? (...) Technologia oparta na sztucznej inteligencji stosunkowo łatwo powinna zaspokajać podstawowe potrzeby, takie jak bezpieczeństwo i dochód, o ile istnieje ku temu wola polityczna. Być może jednak obawiacie się, że człowiek dobrze odżywiony, ubrany, mający schronienie i rozrywkę to za mało. Jeśli będziemy mieć pewność, że sztuczna inteligencja zaspokoi wszystkie praktyczne potrzeby i pragnienia, czy jednak w końcu moglibyśmy poczuć, że naszemu życiu brak znaczenia i celu, jak dobrze utrzymanym zwierzętom z ogrodów zoologicznych?

Jako ludzie tradycyjnie budujemy poczucie własnej wartości na przekonaniu o wyjątkowości człowieka: przekonaniu, że jesteśmy najinteligentniejszymi stworzeniami na naszej planecie, a zatem wyjątkowymi i nadrzędnymi. Powstanie sztucznej inteligencji zmusi nas do porzucenia tego przekonania i większej pokory. A może i tak powinniśmy to zrobić: przecież podtrzymywanie przepełnionego pychą poczucia wyższości nad innymi (jednostkami, grupami etnicznymi, gatunkami itd.) powodowało w przeszłości straszliwe problemy i nadszedł czas, aby ten pomysł przeszedł na emeryturę. W istocie ludzka wyjątkowość nie tylko wywoływała w przeszłości problemy, lecz także wydaje się zbędna dla rozkwitu człowieka: gdybyśmy odkryli pokojową cywilizację pozaziemską, znacznie bardziej zaawansowaną niż my w nauce, sztuce i we wszystkim innym, na czym nam zależy, prawdopodobnie nie przeszkodziłoby to ludziom dalej odczuwać znaczenie i cel ich życia. Moglibyśmy utrzymać rodziny, przyjaciół i większe społeczności oraz wszelką aktywność, która nadaje nam sens i cel, nie tracąc przypuszczalnie nic poza arogancją.

Planując przyszłość, zastanówmy się nad znaczeniem nie tylko naszego życia, lecz także samego Wszechświata. Pod tym względem dwóch moich ulubionych fizyków, Steven Weinberg i Freeman Dyson, wyznaje diametralnie przeciwstawne poglądy. Weinberg, który zdobył Nagrodę Nobla za fundamentalną pracę o Modelu Standardowym fizyki cząstek, napisał: „Im bardziej wszechświat wydaje się zrozumiały, tym bardziej wydaje się on również bezcelowy". Natomiast Dyson, jak widzieliśmy w rozdziale 6, jest nastawiony bardziej optymistycznie: chociaż zgadza się, że nasz Wszechświat był jałowy, wierzy jednak, że życie wypełnia go teraz coraz większym znaczeniem, a najlepsze jeszcze przed nami, jeśli życiu uda się rozprzestrzenić na cały kosmos. Swą słynną publikację z 1979 roku zakończył stwierdzeniem: „Czy bliższy prawdy jest wszechświat Weinberga, czy mój? Pewnego dnia, niezadługo, będziemy to wiedzieć". Jeśli nasz Wszechświat powróci do stanu trwałej nieświadomości, ponieważ doprowadzimy do wymarcia życia na Ziemi lub pozwolimy nieświadomej sztucznej inteligencji przejąć kosmos, to Weinberg dowiedzie swej słuszności, mając atuty w ręku.

Z tej perspektywy widać, że chociaż w książce skupiliśmy się na przyszłości inteligencji, to przyszłość świadomości jest jeszcze ważniejsza, ponieważ to właśnie ona nadaje znaczenie. Filozofowie lubią posługiwać się łaciną, by podkreślać rozróżnienie między mądrością i świadomością, czyli sapientia (zdolność do inteligentnego myślenia) i sententia (umiejętność subiektywnego przeżywania qualiów). My, ludzie, zbudowaliśmy swą tożsamość na tym, że jesteśmy Homo sapiens, najinteligentniejszymi bytami w swym świecie. Przygotowując się na poddanie coraz inteligentniejszym maszynom, sugeruję, byśmy sami przemienili się w Homo sentiens.

Autor jest szwedzko-amerykańskim fizykiem i kosmologiem, profesorem w Massachusetts Institute of Technology i dyrektorem naukowym Foundational Questions Institute. Jest także współzałożycielem Instytutu Przyszłości Życia. Dostał grant od Elona Muska w celu zbadania ryzyka egzystencjalnego związanego z zaawansowaną sztuczną inteligencją.

Książka Maxa Tegmarka, „Życie 3.0. Człowiek w erze sztucznej inteligencji", przeł. Tomasz Krzysztoń, ukazała się w połowie kwietnia nakładem wydawnictwa Prószyński i S-ka, Warszawa 2019

PLUS MINUS

Prenumerata sobotniego wydania „Rzeczpospolitej”:

prenumerata.rp.pl/plusminus

tel. 800 12 01 95

Jeśli jakiś przyszły system sztucznej inteligencji stanie się świadomy, to czego będzie subiektywnie doznawał? (...) Obecnie nie tylko brakuje nam teorii, która odpowiadałaby na to pytanie, ale też nie jesteśmy nawet pewni, czy odpowiedź ta jest logicznie możliwa. Jak w końcu mogłoby brzmieć satysfakcjonujące wyjaśnienie? Jak wytłumaczyć osobie niewidomej, jak wygląda kolor czerwony?

Na szczęście nasza obecna niezdolność do udzielenia pełnej odpowiedzi nie przeszkadza nam w udzieleniu odpowiedzi częściowych. Inteligentni Obcy badający ludzki układ czuciowy prawdopodobnie wywnioskowaliby, że kolorami są qualia (indywidualne przypadki doznania subiektywnego – red.) związane z każdym punktem na dwuwymiarowej powierzchni (nasze pole widzenia), podczas gdy dźwięki nie są odczuwane jako przestrzennie zlokalizowane, a bóle to qualia, które są odczuwane w różnych częściach ciała. Odkrycie, że siatkówki zawierają trzy rodzaje komórek stożkowych czułych na światło, pozwoliłoby im wywnioskować, iż doświadczamy trzech kolorów podstawowych i że wszystkie inne qualia kolorów są wynikiem ich połączenia. Mierząc, jak długo neurony przekazują informacje w mózgu, mogą stwierdzić, że doświadczamy nie więcej niż około dziesięciu świadomych myśli lub percepcji na sekundę i że oglądając filmy w telewizorze z prędkością 24 klatek na sekundę, odbieramy to nie jako sekwencję nieruchomych obrazów, ale jako ruch ciągły. Na podstawie pomiaru szybkości uwalniania się adrenaliny do krwiobiegu i czasu jej trwania, zanim ulegnie rozkładowi, można przewidzieć, że odczuwamy wybuchy gniewu, które rozpoczynają się w ciągu sekund, a trwają przez minuty.

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Plus Minus
Kobiety i walec historii
Plus Minus
Inwazja chwastów Stalina
Plus Minus
Bogusław Chrabota: Putin skończy źle. Nie mam wątpliwości
Plus Minus
Michał Szułdrzyński: Elon Musk na Wielkanoc
Plus Minus
Piotr Zaremba: Reedukowanie Polaków czas zacząć