Amerykańscy farmerzy mają kłopot z traktorami John Deere, których oprogramowanie blokuje nawet drobne naprawy bez wezwania autoryzowanego serwisu. Co robią? Nabywają zhakowane oprogramowanie, pochodzące ponoć z Ukrainy i Polski, co pozwala samodzielnie naprawiać usterki. To drobny przykład szerszego trendu, gdy nabywca produktu traci nad nim kontrolę. Technologie mające ułatwiać życie stały się narzędziem przechwytywania przez producentów władzy, jaką konsument dawniej posiadał nad nabytym przez siebie produktem.
Z punktu widzenia wytwórców na tym właśnie polega optymalizacja. A teraz sobie proszę wyobrazić, że sztuczna inteligencja będzie w podobny sposób optymalizowała nie tylko funkcjonowanie sprzętów, ale także instytucji publicznych.
Za to technologie znów dają nam piękne sny. Inny przykład to bitcoin. Dziś jest wart kilkanaście tysięcy złotych, ale ludzie wierzą, że za rok będzie wart 100 tysięcy. Kto by się nie skusił? Spekulacja elektroniczną walutą nikomu nie robi krzywdy.
Nie całkiem wiemy, na czym polega styk między kryptowalutami a walutami tradycyjnymi. Czyli nie wiemy, jakie skutki uboczne mogą zaistnieć. Kryptowaluty też wzięły się z pięknego marzenia, byśmy przekazując sobie pieniądze, nie byli skazani na system pocztowy ani bankowy. Jakże to obywatelskie: sami będziemy emitować pieniądz, sami go będziemy sobie przesyłać, a jedynymi ograniczeniami będą prawa przyrody rządzące informatyką. Ale nagle się okazuje, że ludzie na komunikatorze Messenger rozsyłają sobie linki do filmików, które w tle uruchamiają program do tego, by z pomocą naszych komputerów ktoś inny „wykopywał" kryptowaluty dla siebie. Wolna moc obliczeniowa twego sprzętu może być przechwycona, by ktoś tworzył swe bogactwo. A teraz wyobraźmy sobie, że do takich sztuczek wykorzystywana będzie sztuczna inteligencja kolejnej generacji. Czy ktoś będzie to potrafił zatrzymać?
Powtarza pan wezwanie do wprowadzenia moratorium na rozwój technologii. Bądźmy realistami. Jak miałoby ono wyglądać?
W latach 70. ubiegłego wieku biolodzy w istocie przyjęli moratorium dotyczące pewnych manipulacji genetycznych. I motyw moratorium ponawiano w różnych kontekstach. W biotechnologii jest to dziś znacznie trudniejsze, bo techniki edycji genów są tak tanie, że trudno to dalej kontrolować. Po drugiej wojnie światowej nie brakowało głosów, że zabójczy konflikt jądrowy jest nie do uniknięcia. Dzięki kombinacji różnych działań – prawnych i uzgodnień nieformalnych – wojna jądrowa nie wybuchła. Profesor Uniwersytetu Harvarda i były zastępca sekretarza obrony USA Joseph Nye uważa, że jeśli nie wprowadzimy jakiejś formy kontroli nad rozwojem cyberbroni, to cyfrowy wyścig zbrojeń wykończy ludzkość.
Wcześniej musimy jednak przyznać, że istnieje newralgiczny proces, który wymknął się spod kontroli. Jednym ze skutków technorozwoju jest przywiązanie elit Zachodu do oświeceniowego przesądu, że wiedza jest dobrem bezproblemowym, że możemy poznać świat w sposób obiektywny, a poznawszy jego prawa, racjonalnie urządzić go zgodnie z ludzkimi wartościami. Istnieje wiara, że jeśli odrzucimy religię, tradycję i uprzedzenia to czystym rozumem poznamy zasady, według których będziemy dobrze żyć. Ale to złudzenie.
Dlaczego?
Wśród powodów jest i to, że natura naszego poznania jest taka, iż poznając świat, zarazem – nieuchronnie – zmieniamy go. Tworzymy nowe warstwy rzeczywistości, które wymagają dalszego poznania i tak horyzont ucieka nam w nieskończoność. Niedawno powołaliśmy do życia świat wirtualny, który oddziałuje na nasz świat, a każde odkrycie technologiczne jeszcze bardziej go modyfikuje. Powstają nowe domeny rzeczywistości, które ciągle uciekają naszemu poznaniu. Gdy tylko za pomocą naukowej wiedzy i techniki rozwiązujemy jakiś problem, tworzymy wiele innych, często bardziej złożonych.
Technologia miała ułatwiać życie, tymczasem coraz częściej je komplikuje. Trzeba uczyć się obsługi ciągle nowych sprzętów, nowych procedur bezpieczeństwa, kolejnych gadżetów itd. Miała uczynić życie wygodniejszym, a okazało się, że na wszystko brakuje nam czasu.
To może właśnie sztuczna inteligencja pomoże nam te uciekające horyzonty okiełznać?
W ramach eksperymentu myślowego, można tak uważać. Ale w nauce istnieje pojęcie przejścia fazowego. Jakiś proces może przez dłuższy czas przebiegać stopniowo, ale w pewnym momencie – nagle – pojawia się zmiana skokowa, substancjalna. Obniża pan temperaturę wody powoli, stopniowo, cały czas mamy do czynienia z płynem, aż w pewnej chwili woda zmienia się w lód. Dalszy rozwój technologiczny może sprawić, że w systemach społecznych nastąpią skokowe zmiany, których nie będziemy w stanie przewidzieć, bo będą miały miejsce po raz pierwszy w historii. Już coraz częściej mówi się, że ostatnio systemy polityczne tracą jedną ze swoich kluczowych cech, którą jest przewidywalność. Ale to tylko „rozgrzewka".
Nie wiemy, w co sztuczna inteligencja się wykrystalizuje, co będzie tym lodem. Tak jak istnieje masa krytyczna materiałów radioaktywnych, od której zaczyna się reakcja łańcuchowa, może istnieć masa krytyczna dla sztucznej inteligencji lub innych procesów zmiany technologicznej. Na przykład, nie mamy pojęcia, co się stanie, gdy wynajęty przez bufona miliardera geniusz jakoś zsynchronizuje różne, już istniejące, na razie wąsko wyspecjalizowane systemy SI.
Opowieść: pod koniec lat 60. XX wieku Amerykanie do ogromnego komputera, rozstawionego na płycie nieużywanego lotniska w Teksasie, wprowadzili zawartość całej Biblioteki Kongresu i w ogóle wszystkich książek na świecie. Zebrano komisję najwybitniejszych ekspertów, noblistów itd., która miała zdecydować, jakie będzie pierwsze pytanie zadane maszynie po jej uruchomieniu. Zdecydowano: „Czy istnieje Bóg?". System zaczął brzęczeć i dygotać. Po pół godzinie padła odpowiedź: „Teraz tak". Reguły gry się zmieniły.
Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju SI, czy powstanie dobry „bóg" optymalizujący zasoby ludzkości czy „szatan" – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne. Tu też powstaje inne pytanie: jeśli powstanie SI, którą będziemy chcieli programować tak, by etyczną wrażliwość miała, to według której z religii należy ją ewangelizować?
Może da się go zaprogramować właśnie do czegoś dobrego?
Problem w tym, że SI nie musi być od nas mądrzejsza, by stać się niebezpieczna. Czy nie zdarzyło się panu, że ktoś mniej inteligentny pana oszukał? Miał mniejszą wiedzę, mniejszą wrażliwość, a wyprowadził pana w pole? Proces ewolucji nie polega na tym, że wygrywa ten, kto zna wszystkie opery. Może się okazać, że sztuczna inteligencja, mając ledwie ułamek zdolności człowieka, ale będąc wyspecjalizowana w aspekcie, który w danej fazie rozwoju technoewolucji jest kluczowy, nas wykiwa. I może nie dlatego, że będzie miała ku temu ambicje, tylko dlatego, że będzie starała się zoptymalizować jakiś parametr.
Stanisław Lem pisał w „Kongresie futurologicznym" o tym, że jeśli roboty będą wystarczająco inteligentne, zamiast wykonywać zadaną im pracę, będą nas oszukiwać, bo bardziej racjonalnie jest udawać pracę, niż się namęczyć.
Jeśli system ma zapisany jeden naczelny wskaźnik, będzie go maksymalizował bez względu na koszty.
Czyli sztuczna inteligencja jest trochę podobna do człowieka. Ale czy można sobie wyobrazić wspieranie naszej inteligencji pracą maszyn?
Przecież to już się dzieje. Ale trochę zmienię to pytanie: jak wyglądałyby losy totalitaryzmu, gdyby ktoś tak demonicznie inteligentny jak Józef Stalin miał wsparcie dzisiejszych technologii? Przy czym nie chodzi wyłącznie o widmo tradycyjnego totalitaryzmu. Proszę sobie wyobrazić, że ktoś mający takie ambicje wpływania na rzeczywistość polityczną jak George Soros oprócz miliardów dolarów do wydania w różnych krajach i sieci organizacji pozarządowych ma do dyspozycji SI dekodującą mu słabe punkty różnych kultur tradycyjnych. Wyobraźmy sobie konsekwentne zaprzęgnięcie nowoczesnej technologii do realizowania czyjejś „postępowej" wizji. Na przykład do monitorowania aktywności w sieci tych wszystkich, którzy kontestują idee progresywne, a następnie automatycznego uruchamiania wyrafinowanych akcji defamacyjnych przeciw takim osobom.
Ludzki umysł dla wielu twórców SI jest wzorem. Wiele modeli sztucznej inteligencji odwzorowuje jego działanie...
Tak było kiedyś. Teraz prace idą w innym kierunku. Zamiast budować sztuczną inteligencję po ludzku skomplikowaną, można sprowadzić ją do rozwiązywania poszczególnych zadań – na przykład samodzielnego parkowania auta, do prowadzenia dialogu terapeutycznego lub przetwarzania danych medycznych. W przypadku gry w go, nie potrzeba, by komputer miał wrażliwość etyczną, lecz jedynie, by umiał uczyć się wygrywać w tę właśnie grę.
Wracając do pańskiego pytania o wspieranie się człowieka tymi technologiami, implanty to już nie jest pieśń przyszłości. Wiemy o udanym stymulowaniu przezczaszkowym wybranych typów zachowań, np. osłabianiu empatii u żołnierzy, którzy mieliby zabijać przeciwników. Psychologia behawioralna pokazała, jak tworzyć warunki, w których człowiek wyrzeka się swoich norm moralnych, byleby tylko osiągnąć zamierzony cel.
Zarówno prawo, moralność, jak i polityka oparte są na pewnym założeniu antropologicznym dotyczącym ludzkiej natury. Normy moralne mają sens tylko wtedy, jeśli założymy, że jakaś w miarę stała ludzka natura istnieje. Czy technologia ją zmienia?
A mamy jasność, czym ta natura jest? Zastanawiam się, czy przynajmniej część sporów o nią bierze się stąd, że, jak się uważa, 1 do 2 proc. ludzi wykazuje cechy psychopatyczne. Być może obecność osób o takich właściwościach w kluczowych węzłach życia społecznego sprawia, że niektórzy w ogóle kwestionują istnienie uniwersalnej ludzkiej natury. Myślę jednak, że istnieją podstawowe cechy powtarzalne dla większości jednostek, choć z rozmaitym natężeniem. Ale cechy te nie są zapisane w kamieniu, a raczej gdzieś w sieciach neuronalnych.
Pod wpływem używania technologii następuje zmiana wielu naszych nawyków poznawczych. Opisał to m.in. w książce „Płytki umysł" Nicholas Carr. Nie potrafimy już na wiele godzin skupić się na jednej czynności, czujemy potrzebę nowych bodźców. Ale zmiany idą dalej, ponieważ dziś genetycy wskazują, że umiejętności nabyte w ciągu życia mogą być dziedziczone. A więc nowe nawyki poznawcze (np. unikania autorefleksji) mogą być dziedziczone przez nasze dzieci. Jest jednak i kolejny poziom: neuronauka, dając nam wiedzę o funkcjonowaniu umysłu, jednocześnie dostarcza narzędzia do wpływania na jego pracę, a także do trwałej przebudowy. Tu mamy całą sferę tzw. human enhancement: polepszania cech człowieka potrzebnych do wykonywania pracy (albo grania na komputerze). U żołnierza chodzi o odporność na stres, u chirurga o wyższy poziom koncentracji w czasie wielogodzinnej operacji itp. Pozornie same plusy, ale na poziomie społecznym może to mieć nieplanowane konsekwencje, których dziś nie jesteśmy w stanie przewidzieć.
Ongiś nie istniała żadna rzeczywistość wirtualna. Owszem, już Platon mówił o samoistnym świecie idei, ale to nie wychodziło poza dyskurs filozoficzny czy literacki. Dziś rzeczywistość wirtualna nie tylko jest odrębną rzeczywistością, ale wprost pożera (czy zasysa) tę tradycyjną. Ludzie chodzący po górach z kamerami Google'a, by zdigitalizować wszystko, co widzialne, przyczyniają się do zamiany świata realnego w wirtualny. Stworzyliśmy świat wirtualny, a więc w pewnym sensie pomnożyliśmy rzeczywistość. Ale jaką mamy gwarancję, że jakaś oparta na SI technologia nie odkryje lub nie stworzy kolejnej warstwy rzeczywistości, której w ogóle nie będziemy w stanie sobie wyobrazić? Jak wobec niej będzie się sytuować ludzki umysł, ludzka dusza?
To ma też konsekwencje filozoficzne. Arystoteles mówił, że prawda to zgodność myśli z rzeczywistością. Pytanie z którą – tą realną czy wirtualną?
Właśnie. Formuła Arystotelesa sprawdza się chyba wyłącznie w odniesieniu do kontekstów, które zostały społecznie skonwencjonalizowane (wystandaryzowane) – praktycznie i językowo. Nie obejmuje sytuacji, które nie zostały jeszcze opisane ani językowo, ani praktycznie oswojone. Na tych polach działają inne formy prawdziwości, choć wielu filozofów nie chce tego przyjąć do wiadomości. Pisałem zresztą o tym ponad 20 lat temu w książce „Przemoc i poznanie".
Ale jak narysować granicę miedzy tym, co wirtualne, a tym, co realne? Jeśli polityk obraża innego na Twitterze, inny się do tego odnosi, tysiące kolejnych osób – wyborców – podaje to dalej. To jeszcze świat wirtualny czy już realna polityka? Jeśli Trump na swym profilu na Twitterze komentuje najważniejsze wydarzenia międzynarodowe, to już nie jest tylko wirtualna rzeczywistość?
Jeśli tysiąc osób obrazi pana w internecie, to czuje się pan mniej upokorzony niż gdy dostanie pan kopniaka od chuligana w parku? Jeśli coś wywołuje reakcje emocjonalne, jest realne, bez względu na to, gdzie się zdarza. To prawda emocji decyduje o tym, czy coś jest faktyczne.
Nie ma polityki bez emocji, ale nie ma też polityki bez informacji. A cała sfera informacji przeniosła się do sieci. Gdy Rosjanie wchodzą ze swoją dezinformacją do sieci, konsekwencje znów są całkiem realne.
Oczywiście. I dlatego wielu wojskowych planistów ma w swoich strategiach dotyczących konfliktów pełnowymiarowych jako jeden z pierwszych celów likwidację rzeczywistości wirtualnej. Przecięcie światłowodów na dnie mórz i oceanów, uderzenie w największe serwerownie, główne węzły sieci oraz klasyczne uderzenie w elektrownie. Pierwszym dostrzeżonym ciosem nowej wojny może być zniknięcie wirtualu.
Czyli tylko wojna jest w stanie zrealizować pański postulat moratorium na rozwój sieciowych technologii...
Oby nie. Chyba że któraś ze stron do tego czasu wykorzysta SI, by wymyśliła inny niż cyfrowy model własnego przetrwania. Może ona odkryje nowe prawa fizyki, które pozwolą jej istnieć bez względu na nas.
Poza znanym nam dzisiaj przepływem elektronów w półprzewodnikach, na których oparta jest dzisiejsza technologia?
Dokładnie tak. Sztuczna inteligencja być może wymyśli sobie inny sposób funkcjonowania i w ogóle nam o tym nie powie. Wtedy atak na rzeczywistość wirtualną nie przyniesie zamierzonego rezultatu. Dlatego cyfrowy wyścig zbrojeń to nie tylko przenośnia. ©?
—rozmawiał Michał Szułdrzyński
Prof. Andrzej Zybertowicz jest socjologiem, doradcą prezydenta Andrzeja Dudy. W 2015 roku wraz z zespołem wydał książkę „Samobójstwo Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat"
PLUS MINUS
Prenumerata sobotniego wydania „Rzeczpospolitej”:
prenumerata.rp.pl/plusminus
tel. 800 12 01 95