Prenumerata 2018 ju˜ż w sprzedża˜y - SPRAWD˜!

Plus Minus

Prof. Zybertowicz: Technologia może być głupsza od nas, a i tak nas wykiwa

Człowiek staje się niewolnikiem skokowej zmiany cywilizacyjnej, którš słabo pojmuje. Sztuczna inteligencja doprowadzi do kompletnej zmiany reguł gry w
Fotorzepa
Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju sztucznej inteligencji, czy powstanie dobry „bóg" optymalizujšcy zasoby ludzkoœci, czy „szatan" – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne – mówi Michałowi Szułdrzyńskiemu socjolog prof. Andrzej Zybertowicz.

Rz: Rozwój sztucznej inteligencji postępuje bardzo szybko. Jedni przed nim ostrzegajš – jak Stephen Hawking czy Elon Musk. Inni zachęcajš do dalszych badań, mówišc o pięknym œwiecie, jaki dzięki temu powstanie. Kto ma rację?

Bliżej mi do pesymistów. Uważam, że rozwój technologii w ogóle wymyka się spod ludzkiej kontroli i dziœ przynosi więcej zagrożeń niż pożytków. Dlatego postuluję moratorium technologiczne. Nie podlegamy już tylko ewolucji kulturowej, lecz techno(r)ewolucji, którš coraz słabiej rozumiemy. Jest ona tak wielowarstwowa, że nie tylko nie istnieje żaden człowiek, który byłby w stanie jš ogarnšć, ale nie ma nawet żadnego modelu teoretycznego, za pomocš którego dynamikę zmian można opisać w stopniu umożliwiajšcym kierowanie tym procesem.

Od momentu powstania internetu zmieniła się odwieczna relacja między człowiekiem a technologiš. Przez wieki mieliœmy przewagę nad narzędziami, które wytwarzaliœmy. Choć jeœli weŸmie pan kij czy siekierę, może sobie pan nimi sam zrobić krzywdę, Ÿle ich używajšc, to tego typu narzędzia sš słabsze od człowieka. Gdy powstały technologie sieciowe, ta relacja się odwróciła: człowiek staje się niewolnikiem skokowej zmiany cywilizacyjnej, którš słabo pojmuje. Sztuczna inteligencja (SI) zaœ najpewniej doprowadzi do kompletnej zmiany reguł już nie tylko gry w społeczeństwo, co gry w rzeczywistoœć w ogóle.

Ale dlaczego uważa pan to za niebezpieczne?

Byłem na prezentacji koncepcji smart city w jednym z ministerstw. Widać było wyraŸnie, że w ekosystemie, jakim jest inteligentne miasto, człowiek to jedno z mniej ważnych ogniw całoœci. To człowiek będzie się musiał dostosować do technologii, a nie na odwrót; rozmaite procesy będš wymuszały na nas, byœmy się z nimi synchronizowali.

Czy to wyłšcznie zagrożenie?

Narkotyki też sš wykorzystywane w celach leczniczych. Smart city to struktura skomplikowana, będzie zarzšdzać nie tylko ruchem samochodów, tramwajów, kolejki podmiejskiej, œwiateł ulicznych, emisjš zanieczyszczeń itp. Tysišce procesów będzie obsługiwanych przez algorytmy kontrolowane przez inne algorytmy. To będzie prawdziwy Wielki Brat, który będzie decydował o tym, co ludzie mogš robić, a czego nie.

Może zysków będzie więcej niż zagrożeń?

Nie, bo to wszystko będzie dla ludzkich umysłów coraz mniej przejrzyste. Narzucić algorytmy to rozwišzanie (pozornie) czysto techniczne, niepolityczne. Okreœlić zaœ, jakie sš „prawdziwe" potrzeby człowieka, którym technologia powinna służyć – tu już w grę wchodzš spory metafizyczne i ideologiczne. Pod płaszczykiem racjonalnoœci ekonomiczno-technicznej będš, zresztš już sš, przesšdzane poza horyzontem debaty publicznej fundamentalne dylematy egzystencjalne.

Poza tym sztuczna inteligencja będzie zarzšdzała tym miastem inaczej, niżby robił to człowiek. Może się inaczej zachować w sytuacjach kryzysowych, przecież np. nie ma empatii. Nie mówišc już o skutkach, jakie przyniosłoby zhakowanie systemu zarzšdzajšcego inteligentnym miastem. Przecież mogliby to uczynić nie tylko ludzie, tajne służby, terroryœci, ale także (czy przede wszystkim) jakaœ inna sztuczna inteligencja, którš ktoœ wrzucił do sieci i która tam sobie buszuje.

Zwolennicy rozwoju sztucznej inteligencji mówiš: przecież to tylko kwestia pewnych założeń, wmontowania bezpieczników. Tak będziemy jš programować, by nie mogła pokonać pewnych barier.

To marzenie sprzed kilkudziesięciu lat. W Polsce w 2016 roku ukazała się ksišżka profesora z Oxfordu Nicka Bostroma „Superinteligencja", w której autor pokazuje, że jeœli sztuczna inteligencja będzie systemem, który sam się uczy, będzie w stanie np. odkrywać prawa przyrody, których ludzkoœć jeszcze nie zna. Przecież przez tysišclecia nie znaliœmy pršdu. A SI mogłaby odkryć zjawiska, których ze względu na ich złożonoœć w ogóle nie potrafimy sobie wyobrazić. Takiej sztucznej inteligencji nie będzie można w żaden sposób wyłšczyć, ponieważ ona może uniezależnić się np. od zasilania pršdem.

Na razie jednak mamy nad komputerami tę przewagę, że to my je programujemy. Nie możemy się zabezpieczyć przed tym, by się te systemy nie wyrodziły w przyszłoœci przeciwko nam?

Nie.

Dlaczego?

Po pierwsze, majš być zdolne do samodzielnego uczenia się. Po drugie, nie wiemy, co to znaczy, że one zwyrodniejš i kiedy. Proszę sobie wyobrazić sytuację: dziewczynki przeprowadzajš się z tatš inżynierem, który ma budować tamę w Nigerii. Pewnego dnia przyprowadzajš do domu małego kotka. Wszyscy się nim zachwycajš. PóŸniej któryœ z tubylców ostrzega, że to nie kotek, tylko malutki tygrys, który, gdy podroœnie, może dzieci pożreć. Któregoœ dnia po prostu przestanie być miły. Problem z technorewolucjš jest taki, że my przypominamy te dziewczynki, które cieszš się atrakcyjnš maskotkš. Jakież to ekscytujšce, że stworzyliœmy maszyny, które same się uczš grać w różne gry, pokonały człowieka w szachy, pokonały w go, pokera...

No dobrze, zatrzymajmy się przy tej metaforze. Tygrysištko to sztuczna inteligencja, dziewczynki to my. A kto jest w realnym œwiecie tubylcem, który przyjdzie i powie: uwaga, to nie jest zwykły kotek?

Punkt ciężkoœci leży w tym, że to „kotek" zupełnie nowej rasy, jakiej jeszcze na Ziemi nie było. Precedens. Być może jedyny podmiot, który zabawę z tygryskiem mógłby przerwać, to jakiœ autorytarny władca posiadajšcy instrumenty, by zabrać nam te zabawki – np. wyłšczyć cały internet dla naszego dobra. W obecnych systemach politycznych trudno sobie takie powstrzymanie technoentuzjamu wyobrazić.

Jak będzie wyglšdało odkrywanie przez SI nowych praw przyrody? Czy tak jak w przypadku wspomnianej gry go? Zaproponowany przez Google'a program w 70 dni stworzył strategie wygrywania, których ludzie nie odkryli przez 4 tysišce lat, od kiedy tę grę wymyœlono.

Ciekawy jest jeszcze inny przykład – systemu, który grał w pokera. Sam wpadł na blefowanie i sięgnšł po strategię, którš doœwiadczeni gracze uważali za nieopłacalnš i nieintuicyjnš: stawianie wysokich stawek na małe wygrane. System to zastosował i wygrał.

Proszę jednak pamiętać, że grš jest życie społeczne, handel, wojna, biznes rozrywkowy, rynek mediów. Skšd mamy pewnoœć, że dziœ za niektórymi zdarzeniami na rynkach finansowych nie stojš jakieœ szerzej nieznane systemy sztucznej inteligencji? Może niektórzy inwestorzy już dziœ wspomagajš się SI, która podpowiada nieintuicyjne, ale jednak opłacalne rozwišzania. Gdy komuœ zabraknie umiaru, rzecz się wymknie spod kontroli, rynki się posypiš, a kryzys 2008 roku będziemy wspominać jako łagodnš przestrogę.

Wiele eksperymentów z SI w przypadku gier pokazuje, że ona doœć szybko uczy się też zachowań agresywnych.

Pewien wybitny szef zespołu pracujšcego nad uczeniem maszynowym (tej technologii ostatnio SI zawdzięcza największe sukcesy) zapewniał mnie, że sztuczna inteligencja przyniesie wielkie korzyœci dla ludzkoœci, ponieważ umożliwi niezwykłš optymalizację posiadanych zasobów. Przykładem niech będzie użycie SI do zarzšdzania ruchem kontenerowców po oceanach albo ciężarówek po drogach. Zniknš puste kursy. A samochody osobowe? Przez 80 proc. lub więcej czasu stojš nieużywane. Przykładów niepełnego wykorzystania zasobów jest mnóstwo.

Ale tu dochodzimy do problemu: jeœli dla systemu celem jest optymalizacja, to reszta jest temu podporzšdkowana. SI się nie waha, człowiek często – dlatego nie przeginamy z konsekwencjš działania. Dla systemu ważne jest poprawienie jakiegoœ parametru lub zbioru parametrów, na resztę jest œlepy. Człowiek zaœ nie myœli po prostu sobš, swym umysłem, myœli kulturš nabytš w trakcie socjalizacji. To bufor chronišcy nas przed niektórymi skutkami działań, które na pozór wydajš się opłacalne.

Jest jeszcze odrębny problem. Młodzi miliarderzy z Doliny Krzemowej, którzy uważajš, że majš misję zmieniania œwiata. Istniejš tysišce startupów. Większoœć z nich znika, częœć utrzymuje się na rynku. Niektórzy twórcy przy sprzyjajšcych warunkach robiš fortuny wielomilionowe. Ale nieliczni, poprzez splot różnych warunków, zostajš miliarderami – nie zawsze dlatego, że sš geniuszami lub że majš wyjštkowe doœwiadczenie, ale przez zbieg warunków rynkowych i technologicznych. Majšc trzydzieœci kilka lat i ogromne fortuny, chcš zbawić œwiat – połšczyć wszystkich ludzi na Ziemi, wyleczyć wszystkie choroby, wreszcie dać człowiekowi nieœmiertelnoœć. Czymże innym jest wizja Marka Zuckerberga, by połšczyć wszystkich ludzi, jak nie reinkarnacjš oœwieceniowego marzenia Immanuela Kanta doprowadzenia do wiecznego pokoju między narodami. Marzenie piękne, ale to za sprawš Facebooka powstał ocean dezinformacji, w którym tonie prawda, który wykorzystywany jest przez niektóre rzšdy do zmasowanej i kłamliwej propagandy, miażdżšcej krytykę i obrońców praw człowieka.

Ale ten system Doliny Krzemowej jest niezwykle demokratyczny. W biznesie internetowym bariera wejœcia na rynek jest niska, więc każdy kto ma dobry pomysł, może osišgnšć sukces.

Pozornie. Zwolennicy wolnego rynku żyjš iluzjš, że w e-biznesie kreatywnoœć i ciężka praca gwarantujš sukces, bez większych zapór poczštkowych. Ale jest inaczej. Dziœ, jeœli dobry pomysł wykazał poważniejszy potencjał rynkowy, zaraz jest namierzony przez któryœ z technogigantów. I firma zostaje wykupiona przez któregoœ z nich, by dla niego pracować. I gdy pana firma jest warta 50 mln dolarów, dostaje pan propozycję wykupu za kilkaset...

...byle nie robić konkurencji tym wielkim firmom.

Właœnie. Niska bariera wejœcia na rynek, ale nie do przekroczenia bariera konfrontacji z liderami branży. Polityka wielkich koncernów jest taka, by wyłapać wszelkie możliwe alternatywy, wszelkie pomysły, które mogłyby nadgryŸć ich monopol. Tworzš specjalne programy, które œledzš, czy nie pojawiło się coœ, co może im zagrozić. I potem wchłaniajš.

Pomysł na tzw. sharing economy (ekonomię współdzielenia) opiera się na optymalizowaniu zasobów, o którym mówił pan chwilę wczeœniej. Nie używamy samochodu 80 proc. czasu, więc ja podjadę na Krakowskie, pan profesor podjedzie gdzieœ dalej, potem ktoœ inny. Można w tym modelu znaleŸć sporo korzyœci.

Piękne. Zwłaszcza na poczštku. Też poczštkowo byłem zachwycony Uberem – masz samochód, wolny czas i możesz sobie dorobić. Ale oprócz pożytków ekonomia współdzielenia rodzi sporo negatywnych skutków ubocznych. Za sprawš rewolucji, którš w hotelarstwie przyniosła sieć bezpoœredniego wynajmu mieszkań Airbnb, np. Barcelona została doprowadzona do kryzysu „overtourismu", przecišżenia systemu miejskiego przez turystykę i liczbę goœci. Poczštkowo chodziło o podnajem własnego mieszkania, ale okazało się, że w Barcelonie ani studenci, ani pracownicy nie mogli sobie pozwolić na wynajem na dłużej rozsšdnego lokum, bo korzystajšcy z Airbnb turyœci skokowo zawyżyli ceny.

Każda technologia przynosi ze sobš nieplanowane skutki uboczne. A jeœli jest ona usieciowiona, to następujš przerzuty nawet na odległe częœci tkanki społecznej.

Amerykańscy farmerzy majš kłopot z traktorami John Deere, których oprogramowanie blokuje nawet drobne naprawy bez wezwania autoryzowanego serwisu. Co robiš? Nabywajš zhakowane oprogramowanie, pochodzšce ponoć z Ukrainy i Polski, co pozwala samodzielnie naprawiać usterki. To drobny przykład szerszego trendu, gdy nabywca produktu traci nad nim kontrolę. Technologie majšce ułatwiać życie stały się narzędziem przechwytywania przez producentów władzy, jakš konsument dawniej posiadał nad nabytym przez siebie produktem.

Z punktu widzenia wytwórców na tym właœnie polega optymalizacja. A teraz sobie proszę wyobrazić, że sztuczna inteligencja będzie w podobny sposób optymalizowała nie tylko funkcjonowanie sprzętów, ale także instytucji publicznych.

Za to technologie znów dajš nam piękne sny. Inny przykład to bitcoin. Dziœ jest wart kilkanaœcie tysięcy złotych, ale ludzie wierzš, że za rok będzie wart 100 tysięcy. Kto by się nie skusił? Spekulacja elektronicznš walutš nikomu nie robi krzywdy.

Nie całkiem wiemy, na czym polega styk między kryptowalutami a walutami tradycyjnymi. Czyli nie wiemy, jakie skutki uboczne mogš zaistnieć. Kryptowaluty też wzięły się z pięknego marzenia, byœmy przekazujšc sobie pienišdze, nie byli skazani na system pocztowy ani bankowy. Jakże to obywatelskie: sami będziemy emitować pienišdz, sami go będziemy sobie przesyłać, a jedynymi ograniczeniami będš prawa przyrody rzšdzšce informatykš. Ale nagle się okazuje, że ludzie na komunikatorze Messenger rozsyłajš sobie linki do filmików, które w tle uruchamiajš program do tego, by z pomocš naszych komputerów ktoœ inny „wykopywał" kryptowaluty dla siebie. Wolna moc obliczeniowa twego sprzętu może być przechwycona, by ktoœ tworzył swe bogactwo. A teraz wyobraŸmy sobie, że do takich sztuczek wykorzystywana będzie sztuczna inteligencja kolejnej generacji. Czy ktoœ będzie to potrafił zatrzymać?

Powtarza pan wezwanie do wprowadzenia moratorium na rozwój technologii. BšdŸmy realistami. Jak miałoby ono wyglšdać?

W latach 70. ubiegłego wieku biolodzy w istocie przyjęli moratorium dotyczšce pewnych manipulacji genetycznych. I motyw moratorium ponawiano w różnych kontekstach. W biotechnologii jest to dziœ znacznie trudniejsze, bo techniki edycji genów sš tak tanie, że trudno to dalej kontrolować. Po drugiej wojnie œwiatowej nie brakowało głosów, że zabójczy konflikt jšdrowy jest nie do uniknięcia. Dzięki kombinacji różnych działań – prawnych i uzgodnień nieformalnych – wojna jšdrowa nie wybuchła. Profesor Uniwersytetu Harvarda i były zastępca sekretarza obrony USA Joseph Nye uważa, że jeœli nie wprowadzimy jakiejœ formy kontroli nad rozwojem cyberbroni, to cyfrowy wyœcig zbrojeń wykończy ludzkoœć.

Wczeœniej musimy jednak przyznać, że istnieje newralgiczny proces, który wymknšł się spod kontroli. Jednym ze skutków technorozwoju jest przywišzanie elit Zachodu do oœwieceniowego przesšdu, że wiedza jest dobrem bezproblemowym, że możemy poznać œwiat w sposób obiektywny, a poznawszy jego prawa, racjonalnie urzšdzić go zgodnie z ludzkimi wartoœciami. Istnieje wiara, że jeœli odrzucimy religię, tradycję i uprzedzenia to czystym rozumem poznamy zasady, według których będziemy dobrze żyć. Ale to złudzenie.

Dlaczego?

Wœród powodów jest i to, że natura naszego poznania jest taka, iż poznajšc œwiat, zarazem – nieuchronnie – zmieniamy go. Tworzymy nowe warstwy rzeczywistoœci, które wymagajš dalszego poznania i tak horyzont ucieka nam w nieskończonoœć. Niedawno powołaliœmy do życia œwiat wirtualny, który oddziałuje na nasz œwiat, a każde odkrycie technologiczne jeszcze bardziej go modyfikuje. Powstajš nowe domeny rzeczywistoœci, które cišgle uciekajš naszemu poznaniu. Gdy tylko za pomocš naukowej wiedzy i techniki rozwišzujemy jakiœ problem, tworzymy wiele innych, często bardziej złożonych.

Technologia miała ułatwiać życie, tymczasem coraz częœciej je komplikuje. Trzeba uczyć się obsługi cišgle nowych sprzętów, nowych procedur bezpieczeństwa, kolejnych gadżetów itd. Miała uczynić życie wygodniejszym, a okazało się, że na wszystko brakuje nam czasu.

To może właœnie sztuczna inteligencja pomoże nam te uciekajšce horyzonty okiełznać?

W ramach eksperymentu myœlowego, można tak uważać. Ale w nauce istnieje pojęcie przejœcia fazowego. Jakiœ proces może przez dłuższy czas przebiegać stopniowo, ale w pewnym momencie – nagle – pojawia się zmiana skokowa, substancjalna. Obniża pan temperaturę wody powoli, stopniowo, cały czas mamy do czynienia z płynem, aż w pewnej chwili woda zmienia się w lód. Dalszy rozwój technologiczny może sprawić, że w systemach społecznych nastšpiš skokowe zmiany, których nie będziemy w stanie przewidzieć, bo będš miały miejsce po raz pierwszy w historii. Już coraz częœciej mówi się, że ostatnio systemy polityczne tracš jednš ze swoich kluczowych cech, którš jest przewidywalnoœć. Ale to tylko „rozgrzewka".

Nie wiemy, w co sztuczna inteligencja się wykrystalizuje, co będzie tym lodem. Tak jak istnieje masa krytyczna materiałów radioaktywnych, od której zaczyna się reakcja łańcuchowa, może istnieć masa krytyczna dla sztucznej inteligencji lub innych procesów zmiany technologicznej. Na przykład, nie mamy pojęcia, co się stanie, gdy wynajęty przez bufona miliardera geniusz jakoœ zsynchronizuje różne, już istniejšce, na razie wšsko wyspecjalizowane systemy SI.

Opowieœć: pod koniec lat 60. XX wieku Amerykanie do ogromnego komputera, rozstawionego na płycie nieużywanego lotniska w Teksasie, wprowadzili zawartoœć całej Biblioteki Kongresu i w ogóle wszystkich ksišżek na œwiecie. Zebrano komisję najwybitniejszych ekspertów, noblistów itd., która miała zdecydować, jakie będzie pierwsze pytanie zadane maszynie po jej uruchomieniu. Zdecydowano: „Czy istnieje Bóg?". System zaczšł brzęczeć i dygotać. Po pół godzinie padła odpowiedŸ: „Teraz tak". Reguły gry się zmieniły.

Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju SI, czy powstanie dobry „bóg" optymalizujšcy zasoby ludzkoœci czy „szatan" – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne. Tu też powstaje inne pytanie: jeœli powstanie SI, którš będziemy chcieli programować tak, by etycznš wrażliwoœć miała, to według której z religii należy jš ewangelizować?

Może da się go zaprogramować właœnie do czegoœ dobrego?

Problem w tym, że SI nie musi być od nas mšdrzejsza, by stać się niebezpieczna. Czy nie zdarzyło się panu, że ktoœ mniej inteligentny pana oszukał? Miał mniejszš wiedzę, mniejszš wrażliwoœć, a wyprowadził pana w pole? Proces ewolucji nie polega na tym, że wygrywa ten, kto zna wszystkie opery. Może się okazać, że sztuczna inteligencja, majšc ledwie ułamek zdolnoœci człowieka, ale będšc wyspecjalizowana w aspekcie, który w danej fazie rozwoju technoewolucji jest kluczowy, nas wykiwa. I może nie dlatego, że będzie miała ku temu ambicje, tylko dlatego, że będzie starała się zoptymalizować jakiœ parametr.

Stanisław Lem pisał w „Kongresie futurologicznym" o tym, że jeœli roboty będš wystarczajšco inteligentne, zamiast wykonywać zadanš im pracę, będš nas oszukiwać, bo bardziej racjonalnie jest udawać pracę, niż się namęczyć.

Jeœli system ma zapisany jeden naczelny wskaŸnik, będzie go maksymalizował bez względu na koszty.

Czyli sztuczna inteligencja jest trochę podobna do człowieka. Ale czy można sobie wyobrazić wspieranie naszej inteligencji pracš maszyn?

Przecież to już się dzieje. Ale trochę zmienię to pytanie: jak wyglšdałyby losy totalitaryzmu, gdyby ktoœ tak demonicznie inteligentny jak Józef Stalin miał wsparcie dzisiejszych technologii? Przy czym nie chodzi wyłšcznie o widmo tradycyjnego totalitaryzmu. Proszę sobie wyobrazić, że ktoœ majšcy takie ambicje wpływania na rzeczywistoœć politycznš jak George Soros oprócz miliardów dolarów do wydania w różnych krajach i sieci organizacji pozarzšdowych ma do dyspozycji SI dekodujšcš mu słabe punkty różnych kultur tradycyjnych. WyobraŸmy sobie konsekwentne zaprzęgnięcie nowoczesnej technologii do realizowania czyjejœ „postępowej" wizji. Na przykład do monitorowania aktywnoœci w sieci tych wszystkich, którzy kontestujš idee progresywne, a następnie automatycznego uruchamiania wyrafinowanych akcji defamacyjnych przeciw takim osobom.

Ludzki umysł dla wielu twórców SI jest wzorem. Wiele modeli sztucznej inteligencji odwzorowuje jego działanie...

Tak było kiedyœ. Teraz prace idš w innym kierunku. Zamiast budować sztucznš inteligencję po ludzku skomplikowanš, można sprowadzić jš do rozwišzywania poszczególnych zadań – na przykład samodzielnego parkowania auta, do prowadzenia dialogu terapeutycznego lub przetwarzania danych medycznych. W przypadku gry w go, nie potrzeba, by komputer miał wrażliwoœć etycznš, lecz jedynie, by umiał uczyć się wygrywać w tę właœnie grę.

Wracajšc do pańskiego pytania o wspieranie się człowieka tymi technologiami, implanty to już nie jest pieœń przyszłoœci. Wiemy o udanym stymulowaniu przezczaszkowym wybranych typów zachowań, np. osłabianiu empatii u żołnierzy, którzy mieliby zabijać przeciwników. Psychologia behawioralna pokazała, jak tworzyć warunki, w których człowiek wyrzeka się swoich norm moralnych, byleby tylko osišgnšć zamierzony cel.

Zarówno prawo, moralnoœć, jak i polityka oparte sš na pewnym założeniu antropologicznym dotyczšcym ludzkiej natury. Normy moralne majš sens tylko wtedy, jeœli założymy, że jakaœ w miarę stała ludzka natura istnieje. Czy technologia jš zmienia?

A mamy jasnoœć, czym ta natura jest? Zastanawiam się, czy przynajmniej częœć sporów o niš bierze się stšd, że, jak się uważa, 1 do 2 proc. ludzi wykazuje cechy psychopatyczne. Być może obecnoœć osób o takich właœciwoœciach w kluczowych węzłach życia społecznego sprawia, że niektórzy w ogóle kwestionujš istnienie uniwersalnej ludzkiej natury. Myœlę jednak, że istniejš podstawowe cechy powtarzalne dla większoœci jednostek, choć z rozmaitym natężeniem. Ale cechy te nie sš zapisane w kamieniu, a raczej gdzieœ w sieciach neuronalnych.

Pod wpływem używania technologii następuje zmiana wielu naszych nawyków poznawczych. Opisał to m.in. w ksišżce „Płytki umysł" Nicholas Carr. Nie potrafimy już na wiele godzin skupić się na jednej czynnoœci, czujemy potrzebę nowych bodŸców. Ale zmiany idš dalej, ponieważ dziœ genetycy wskazujš, że umiejętnoœci nabyte w cišgu życia mogš być dziedziczone. A więc nowe nawyki poznawcze (np. unikania autorefleksji) mogš być dziedziczone przez nasze dzieci. Jest jednak i kolejny poziom: neuronauka, dajšc nam wiedzę o funkcjonowaniu umysłu, jednoczeœnie dostarcza narzędzia do wpływania na jego pracę, a także do trwałej przebudowy. Tu mamy całš sferę tzw. human enhancement: polepszania cech człowieka potrzebnych do wykonywania pracy (albo grania na komputerze). U żołnierza chodzi o odpornoœć na stres, u chirurga o wyższy poziom koncentracji w czasie wielogodzinnej operacji itp. Pozornie same plusy, ale na poziomie społecznym może to mieć nieplanowane konsekwencje, których dziœ nie jesteœmy w stanie przewidzieć.

Ongiœ nie istniała żadna rzeczywistoœć wirtualna. Owszem, już Platon mówił o samoistnym œwiecie idei, ale to nie wychodziło poza dyskurs filozoficzny czy literacki. Dziœ rzeczywistoœć wirtualna nie tylko jest odrębnš rzeczywistoœciš, ale wprost pożera (czy zasysa) tę tradycyjnš. Ludzie chodzšcy po górach z kamerami Google'a, by zdigitalizować wszystko, co widzialne, przyczyniajš się do zamiany œwiata realnego w wirtualny. Stworzyliœmy œwiat wirtualny, a więc w pewnym sensie pomnożyliœmy rzeczywistoœć. Ale jakš mamy gwarancję, że jakaœ oparta na SI technologia nie odkryje lub nie stworzy kolejnej warstwy rzeczywistoœci, której w ogóle nie będziemy w stanie sobie wyobrazić? Jak wobec niej będzie się sytuować ludzki umysł, ludzka dusza?

To ma też konsekwencje filozoficzne. Arystoteles mówił, że prawda to zgodnoœć myœli z rzeczywistoœciš. Pytanie z którš – tš realnš czy wirtualnš?

Właœnie. Formuła Arystotelesa sprawdza się chyba wyłšcznie w odniesieniu do kontekstów, które zostały społecznie skonwencjonalizowane (wystandaryzowane) – praktycznie i językowo. Nie obejmuje sytuacji, które nie zostały jeszcze opisane ani językowo, ani praktycznie oswojone. Na tych polach działajš inne formy prawdziwoœci, choć wielu filozofów nie chce tego przyjšć do wiadomoœci. Pisałem zresztš o tym ponad 20 lat temu w ksišżce „Przemoc i poznanie".

Ale jak narysować granicę miedzy tym, co wirtualne, a tym, co realne? Jeœli polityk obraża innego na Twitterze, inny się do tego odnosi, tysišce kolejnych osób – wyborców – podaje to dalej. To jeszcze œwiat wirtualny czy już realna polityka? Jeœli Trump na swym profilu na Twitterze komentuje najważniejsze wydarzenia międzynarodowe, to już nie jest tylko wirtualna rzeczywistoœć?

Jeœli tysišc osób obrazi pana w internecie, to czuje się pan mniej upokorzony niż gdy dostanie pan kopniaka od chuligana w parku? Jeœli coœ wywołuje reakcje emocjonalne, jest realne, bez względu na to, gdzie się zdarza. To prawda emocji decyduje o tym, czy coœ jest faktyczne.

Nie ma polityki bez emocji, ale nie ma też polityki bez informacji. A cała sfera informacji przeniosła się do sieci. Gdy Rosjanie wchodzš ze swojš dezinformacjš do sieci, konsekwencje znów sš całkiem realne.

Oczywiœcie. I dlatego wielu wojskowych planistów ma w swoich strategiach dotyczšcych konfliktów pełnowymiarowych jako jeden z pierwszych celów likwidację rzeczywistoœci wirtualnej. Przecięcie œwiatłowodów na dnie mórz i oceanów, uderzenie w największe serwerownie, główne węzły sieci oraz klasyczne uderzenie w elektrownie. Pierwszym dostrzeżonym ciosem nowej wojny może być zniknięcie wirtualu.

Czyli tylko wojna jest w stanie zrealizować pański postulat moratorium na rozwój sieciowych technologii...

Oby nie. Chyba że któraœ ze stron do tego czasu wykorzysta SI, by wymyœliła inny niż cyfrowy model własnego przetrwania. Może ona odkryje nowe prawa fizyki, które pozwolš jej istnieć bez względu na nas.

Poza znanym nam dzisiaj przepływem elektronów w półprzewodnikach, na których oparta jest dzisiejsza technologia?

Dokładnie tak. Sztuczna inteligencja być może wymyœli sobie inny sposób funkcjonowania i w ogóle nam o tym nie powie. Wtedy atak na rzeczywistoœć wirtualnš nie przyniesie zamierzonego rezultatu. Dlatego cyfrowy wyœcig zbrojeń to nie tylko przenoœnia. Š?

—rozmawiał Michał Szułdrzyński

Prof. Andrzej Zybertowicz jest socjologiem, doradcš prezydenta Andrzeja Dudy. W 2015 roku wraz z zespołem wydał ksišżkę „Samobójstwo Oœwiecenia? Jak neuronauka i nowe technologie pustoszš ludzki œwiat"

ródło: Plus Minus

WIDEO KOMENTARZ

REDAKCJA POLECA

NAJNOWSZE Z RP.PL