Prenumerata 2018 ju˜ż w sprzedża˜y - SPRAWD˜!

Plus Minus

Prof. Andrzej Zybertowicz tłumaczy, jak internet niszczy liberalnš demokrację

Andrzej Zybertowicz, socjolog
Rzeczpospolita, Darek Golik
Wystarczy pokazać ludziom, że częœć klasy politycznej to fałszywe autorytety, by zaczęły upadać wszystkie autorytety. Seriale typu „House of Cards" pokazały ludowi, na czym polega polityka. Ten film również przyczynił się do kryzysu demokracji.

"Plus Minus": Czy media społecznoœciowe i rewolucja technologiczna rzeczywiœcie mogš wpływać na wyniki wyborów?

Andrzej Zybertowicz, socjolog: Już wpływajš. Wielu obserwatorów wskazuje, że masowo powielane na Facebooku nieprawdziwe informacje przyczyniły się do porażki Hillary Clinton. Jeszcze do niedawna, analizujšc sytuację politycznš, najczęœciej zwracano uwagę na zjawiska polityczne, potem gospodarcze, a następnie kulturowe. Rzadko brano pod uwagę przemiany technologiczne. Tymczasem moim zdaniem istnieje głębsza przyczyna łšczšca tak różne, zdawałoby się, sytuacje, jak: kryzys UE, agresja Rosji na Ukrainę, wojna w Syrii, fale terroryzmu, kryzys migracyjny, Brexit, nieoczekiwany sukces Donalda Trumpa. Sšdzę, że ich głębokš przyczynš jest to, że postęp technologiczny wymknšł się spod kontroli i tworzy liczne sytuacje, w których ludzie, instytucje i państwa nie potrafiš się rozeznać. Należy oczekiwać dalszych zjawisk o konwulsyjnym charakterze. Gdy ludzie tracš zdolnoœć rozumienia tego, co się dzieje z ich życiem, często reagujš na oœlep. Narasta chaos, który może doprowadzić do zniszczenia demokracji, nie tylko liberalnej.

Przecież technologia miała służyć do tego, by uporzšdkować nasze życie, ułatwić je.

Diagnozujšc współczesnoœć, korzystam z koncepcji bezpieczeństwa ontologicznego znanego brytyjskiego socjologa Anthony'ego Giddensa. Jego zdaniem jednš z podstawowych – obecnych we wszystkich kulturach – potrzeb człowieka jest angażowanie się w powtarzalne działania dajšce poczucie sprawstwa i kontroli w odniesieniu do jakiegoœ fragmentu rzeczywistoœci. W œwiecie, który się nieustannie zmienia, dla wielu osób np. kontrola nad własnym ciałem to jedyny obszar, w którym mogš zachować sprawczoœć. Stšd popularnoœć biegania, chodzenia na siłownię etc. Poczucie bycia podmiotem dajš też gry komputerowe i surfowanie po sieci. Bezpieczeństwo ontologiczne bywa niekiedy ważniejsze niż bezpieczeństwo fizyczne. Kiedyœ byłem w Izraelu na kursie poœwięconym zwalczaniu terroryzmu. Jeden z uczestników – praktyk, który łapał i zabijał terrorystów – twierdził, że terroryzm wyrasta z poczucia niższoœci. Wtedy wydało mi się to ogromnym uproszczeniem, ale im dłużej przyglšdam się sprawie, tym więcej przyznaję mu racji. Ludzie różnych kultur, o różnym stopniu zamożnoœci, zostali wrzuceni w œwiat, którego zupełnie nie rozumiejš. Widzš, że inni odnoszš sukces – na przykład celebryci – bez jasnych reguł gry, bez zwišzku między talentem i ciężkš pracš a powodzeniem. Akt terrorystyczny, zabicie siebie i innych, może być niekiedy jedynš formš podmiotowoœci, jakš ktoœ może okazać, jedynš szansš obrony swej godnoœci. Wreszcie coœ od mnie zależy: życie innych ludzi.

Ale na czym polega zwišzek między terroryzmem, Brexitem a zwycięstwem Donalda Trumpa w USA?

Michael Moore, amerykański filmowiec, zwolennik demokratów, napisał w lipcu 2016 roku tekst o powodach, dla których Trump wygra. Wskazał m.in., że akt wyborczy to jedna z niewielu sytuacji w życiu, gdy nikt nie patrzy nam na ręce i możemy zrobić to, czego naprawdę chcemy. Głosujšc, można komuœ utrzeć nosa. U częœci wyborców, którzy czujš się zagubieni w œwiecie, bo go nie rozumiejš, jest potężna chęć odreagowania.

Na kim albo na czym?

(œmiech). Proszę nie dać się zwieœć żadnej prostej odpowiedzi na to pytanie. To w ogromnej mierze jest podœwiadome. Na systemie, na „onych"? Na „tej strasznej babie Clinton", jak mówiono. A może na wszystkim naraz?

W przypadku Brexitu chodziło o to, by utrzeć nosa Brukseli?

Nie tylko. Każdemu, kto zdaniem głosujšcych nie zachowuje się OK. Ludzie, którzy majš poczucie sukcesu, słabo pojmujš, dlaczego pozostali sš niezadowoleni. Tymczasem z tegorocznego raportu McKinsey Global Institute wynika, że mimo wzrostu gospodarczego i technologicznego ostatnich dekad, realne zarobki klasy œredniej najnowoczeœniejszych gospodarek œwiata wcale nie rosły, a niekiedy malały. Owoce postępu technologicznego i globalizacji nie sš równomiernie rozdzielane. Ludzie nie muszš znać danych, ale czujš, że coœ nie gra, a wœród sposobów, które im daje liberalna demokracja, by poczuć swš podmiotowoœć, jest utarcie komuœ nosa przy urnie.

Do wyborów chodzš co parę lat, a co robiš na co dzień?

Walczš o swojš godnoœć, nie rozumiejšc, co się dzieje ze œwiatem i nimi samymi.

Walczš za pomocš mediów społecznoœciowych?

Właœnie. Dlatego stały się one przestrzeniš hejtu i trollowania. Nawet jeœli odejmiemy płatny trolling, kupowany przez korporacje, Rosjan, Chińczyków i PR-owców partii politycznych etc., to i tak mamy ogromne fale hejtu „amatorskiego" czy „rekreacyjnego". To odreagowanie braku bezpieczeństwa ontologicznego w realu. Hejt często daje poczucie sprawczoœci. Gdy kogoœ obrażam, a ta osoba reaguje, albo gdy ktoœ zauważa mój hejt i przesyła go dalej, przestaję być kimœ bez znaczenia. Znajduję sobie pole podmiotowoœci. Ja, mały żuczek, przeskakujšc wszystkie szczeble drabiny społecznej, mogę zaatakować kogoœ potężnego. Wystarczy, że zrobię mema, który się rozprzestrzeni...

I mogę obrazić prezydenta, premiera, szefa partii rzšdzšcej lub opozycyjnej, popularnego aktora, celebrytę, znanego dziennikarza...

Tak. Robisz mem, ludzie go modyfikujš, lajkujš, przekazujš dalej, masz wrażenie sprawstwa, sukcesu. A jednoczeœnie uczestniczysz w procesie, którego skumulowanych efektów nie jesteœ w stanie ogarnšć.

Czyli staramy się – czy to w wyborach, czy to w mediach społecznoœciowych – utrzeć nosa systemowi. Ale czy ten sprzeciw naprawi to, co nam się w tym œwiecie nie podoba?

Sam z siebie nie. Chyba że zostanie właœciwie odczytany jako znak czasu. Ludzkoœć przez technologię przekształca rzeczywistoœć w sposób, którego już nie rozumie. Złożonoœć dzisiejszych systemów technologicznych jest taka, że nikt tego nie ogrania, nawet ich twórcy. Systemy, które dziœ powstajš, wytwarzajš niezamierzone efekty, które rozpoznajemy z dużym opóŸnieniem. Znaki czasu mówiš, że musimy spowolnić rozwój, osłabić tempo zmian.

Dlaczego?

Bo natłok problemów jest taki, że nie wiemy, w jakiej kolejnoœci się za nie zabierać. WyobraŸmy sobie, że wraca pan do domu, a tam zniszczenia po jakiejœ klęsce żywiołowej. Zabiera się pan za remont. Tymczasem słyszy pan, że zmienia się system opłat za materiały budowlane i sš nowe normy energetyczne; że najlepiej byłoby, gdyby podczas remontu zmienił pan rodzaj okien, wymienił drzwi na automatyczne, ogrzewanie zmienił na ekologiczne, a jednoczeœnie bank się „unowoczeœnił" i zmienił system spłacania rat kredytu. Kanalizacja też nie może być po staremu, a najlepiej jeœli w ramach internetu rzeczy zamontuje pan elektroniczny system rozrywki łšczšcy lodówkę z kinem domowym. I nim cokolwiek zacznie porzšdnie działać, jest pan zmuszany, by cišgle robić coœ nowego. Kiedy jedno jest gotowe, to coœ innego jest ogłaszane jako przestarzałe i mało bezpieczne. Nie da się naprawić systemu, którego warunki brzegowe nieustannie się zmieniajš. Ludzkoœć jest w fazie, w której nie możemy rozwišzywać problemów, nie tworzšc kolejnych. Wniosek: jeœli w skali œwiata nie spowolnimy tempa oraz zakresu rozwoju technologicznego, rzeczy całkiem wymknš się spod kontroli. A wtedy zaskoczenia a la Trump będš wspominane jako łagodna przestroga z przeszłoœci, której nie zrozumieliœmy.

Gdzie tu zagrożenie dla demokracji?

Niezdolnoœć odróżnienia prawdy od fałszu to mało? A powstajš technologie, które pozwalajš czytać nasze emocje i nawet myœli. To może dać instrumenty do rozwoju autorytaryzmów nowej generacji. Gdyby XX-wieczne totalitaryzmy mogły korzystać z elektronicznych form nadzoru, to nie wiadomo, czy w ogóle by upadły. Już istniejš zautomatyzowane instrumenty badania poziomu emocji wpisów w mediach społecznoœciowych. Monitorujšc zapytania Google'a, można dziœ wyłapać epidemię grypy, zanim zorientujš się lekarze.

Ale to chyba nie jest złe wykorzystanie technologii?

Władza autorytarna może jednak dzięki takim samym instrumentom uprzedzać wybuch niepokojów społecznych. Nim obywatele zdšżš się oddolnie zorganizować, można będzie namierzyć spontanicznie wyłaniajšcych się przywódców i unieszkodliwić ich. Proszę zobaczyć, jaki wpływ ma Facebook. Nigdy w historii nie było tak, że jedna firma była poœrednikiem komunikacji, w której uczestniczy czwarta częœć ludzkoœci. Na razie większoœć algorytmów FB to niskiej generacji sztuczne inteligencje. Ale gdy one się rozwinš, władcy Facebooka będš w stanie w skoordynowany sposób inspirować myœlenie setek milionów ludzi. Niedługo zaœ powstanš technologie, o których już dziœ powinniœmy dyskutować. Na przykład implanty, które dorosłych będš „chroniły" przed depresjš, dzieci przed napadami agresji, a młodzież przed myœlami samobójczymi.

Czip stymulujšcy system nerwowy?

Obiecane nam będzie mnóstwo korzyœci zdrowotnych. Ale za jego pomocš będzie też można sterować ludzkimi zachowaniami. Kłopot w tym, że systemy technospołeczne ewoluujš według własnej logiki. Nie tej, o której myœlš ich twórcy. Stale nakładajš się na siebie różne systemy. Konstruktor danego sytemu, wie do czego on służy i próbuje go opanować. Ale już sieć splštanych systemów daje nieoczekiwane skutki, wywołujšc chaos w miejscach, o których byœmy nawet nie pomyœleli. Seria zdarzeń, którš nazywamy kryzysem demokracji zachodniej, jest efektem sprowokowania przez nas samych nowych pól chaosu. Obalenie dyktatorów, takich jak Mubarak czy Kaddafi, wywołało skutki, których nikt nie planował. Liczba ofiar na Morzu Œródziemnym przekracza liczbę ofiar ich reżimów. Nie należy się łudzić, że zrozumiemy wszystkie mechanizmy społecznego œwiata. Wiedza o konsekwencjach naszych działań wobec innych kultur jest bardzo powierzchowna. Próbujšc ingerować w procesy, które rozwijały się przez dekady i stulecia, generujemy chaos i ofiary w miejscach zupełnie nieoczekiwanych.

W œwiecie realnym czy wirtualnym?

W obu. A interakcja tych dwóch œwiatów wytwarza dodatkowe pola napięć i chaosu.

Wróćmy do demokracji. Arystoteles i Alexis de Tocqueville mówili, że funkcjonuje ona najlepiej, gdy ma pierwiastek arystokratyczny. Przyzwyczailiœmy się, że istniejš elity, które tłumaczš ludziom rzeczywistoœć. Dopóki ludzie ufajš, że eksperci sš ekspertami, to wszystko jakoœ działa, ludzie wierzš, że pozwalajš nam oni odróżniać prawdę od fałszu. Co się z nimi stało?

Instytucje, które sprawdzały, co jest prawdš, a co fałszem, co jest dobre, a co złe, co jest ważne, a co nieistotne, wraz z rozwojem internetu i mediów społecznoœciowych błyskawicznie straciły autorytet. Każdy może wygenerować informację, która będzie wyglšdać wiarygodnie i mimo że jest kompletnym fejkiem, będzie jak burza szła po sieci. W odpowiedzi na kłamstwa polityków powołano do życia serwisy internetowe typu fact check – sprawdzajšce prawdziwoœć wypowiedzi polityków. Ale zgiełk informacyjny zrodzony przez stałe podłšczenie do sieci sprawia, że fact checki nie sš w stanie równoważyć zalewu informacji nie- lub półprawdziwych. Tu sprawdza się ekonomiczna teoria racjonalnej ignorancji, mówišca, że gdy koszt dotarcia do wiedzy jest wysoki, a korzyœci z jej posiadania sš nieokreœlone, człowiek rezygnuje z podjęcia wysiłku jej poszukiwania. Woli surfować po oceanie dezinformacji.

Wiek XIX i XX to był czas walki z cenzurš, walki o przejrzystoœć działania władz i prawo do informacji. Dziœ mamy wiek dezinformacji. Transparentnoœć demokracji stała się swojš własnš ofiarš. Gdy paparazzi odsłaniajš kulisy działania elit, które chciałyby jawić się jako odpowiedzialne i prospołeczne, widzimy, że sš cwaniackie i działajš głównie we własnym interesie. Wystarczy dobitnie ukazać, że częœć klasy politycznej to fałszywe autorytety, by zaczęły upadać wszystkie autorytety. Seriale typu „House of Cards" – Bill Clinton powiedział, że jest on w 99 proc. prawdziwy – pokazały ludowi, na czym polega polityka. Bismarck przestrzegał, że ludzie nie powinni wiedzieć dwóch rzeczy: jak się robi kiełbasę i politykę. Ten serial również przyczynił się do kryzysu demokracji. Okazało się, że prawda przedstawiona ludziom, którzy nie majš wiedzy kontekstowej, by zrozumieć, jak ukazany wycinek procesu funkcjonuje w szerszych ramach, może wraz z innymi czynnikami (dezinformacjš i kłamstwem) prowadzić do destabilizacji całego systemu. Wyglšda na to, że to właœnie miało miejsce w Stanach.

Serwis BuzzFeed porównał 20 prawdziwych i 20 fałszywych newsów w mediach społecznoœciowych podczas kampanii. Okazało się, że fałszywe były bardziej popularne...

To tylko częœć problemu. Wchodzi pan do mediów społecznoœciowych i czyta jakiœ wpis, ale nie wie, czy to ktoœ, kto chce z panem porozmawiać, czy płatny troll, który ma prowokować. Co więcej, nie wiemy, czy wpis został stworzony przez człowieka czy przez bota. Według badań, o których niedawno czytałem, znaczna częœć tweetów w amerykańskiej kampanii wyborczej była tworzona przez specjalnie zaprogramowane boty. Jedni wchodzš do sieci, by znaleŸć przyjaciela, a inni – by komuœ przywalić. Niebawem mało kto będzie potrafił odróżnić, czy bratnia dusza to nie jest bot psychoterapeutyczny. To jeszcze bardziej spotęguje zagubienie.

Dla kogo pracujš te boty? Ktoœ musiał je zaprogramować.

Niektóre stworzyły firmy. Inne hakerzy. Ale na przykład niektóre wirusy wymknęły się spod kontroli i żyjš własnym życiem. Amerykańsko-izraelski wirus stuxnet, który z powodzeniem zaatakował irański program nuklearny, potem był przeprogramowywany i dokonywał spustoszeń w innych miejscach œwiata.

Da się ocalić prawdę w tym wszystkim? Gdy obywatele sš zalewani fałszywymi informacjami, demokracja traci sens.

Zagadnienie ocalenia prawdy jest fascynujšce. Niedawno uczestniczyłem w konferencji zorganizowanej przez MON i BBN na temat dezinformacji. Wystšpili eksperci z wielu krajów. Rekomendowali, by demaskować dezinformacje, prowadzšc ofensywę prawdy. Ale powstaje pytanie, które z dezinformacji to infowar, czyli realna wojna informacyjna, toczona przez różne podmioty – wrogie państwa, grupy przestępcze albo organizacje terrorystyczne – a które to „tylko" infonoise, czyli spontanicznie wyłaniajšcy się szum. Jeden z uczestników konferencji zaproponował, by oœmieszać rosyjskš propagandę, bo autorytaryzmy bojš się oœmieszania. Produkować np. memy przerysowujšce rzeczywistoœć. Ale to tworzy dodatkowš warstwę dezinformacji, nierzeczywistoœci. Ludzie nieznajšcy kontekstu mogš takš nierzeczywistoœć wzišć za rzeczywistoœć. Wyglšda na to, że w oceanie zgiełku mamy tyle różnych warstw, że ci którzy dezinformujš, radzš sobie lepiej. W postfaktualnej demokracji wygrywa ten, kto najlepiej poruszy emocje odbiorców. Mózg przetwarza emocje trzy razy szybciej niż dokonuje logicznej analizy.

Elity umarły, demokracja umiera, prawda przestaje się liczyć. Nie jest pan optymistš.

Dlatego wskazuję, że musimy powstrzymać tempo zmian.

Ktoœ jest podmiotem w tej grze? Państwa? Korporacje?

Jedne i drugie sš podmiotami na swoich polach gry. Może największym ryzykiem jest zaburzenie równowagi między państwami a korporacjami. Dzięki państwom udało się wytłumić kryzys finansowy z 2008 roku. Gdy wielkie międzynarodowe korporacje sparaliżujš organizmy państw, systemowi zabraknie buforu. Sš analizy wskazujšce, że wœród największych œwiatowych firm ok. 150 jest ze sobš œciœle powišzanych finansowo, kadrowo itp. Taki rdzeń współczesnego kapitalizmu. Małe i œrednie firmy walczš ze sobš na œmierć i życie o przetrwanie, a te rdzeniowe po cichu ustalajš faktyczne reguły gry. Gdy jesteœ oligarchš, banki będš się o ciebie zabijały i wszystko ci wybaczš. Jeœli jesteœ małš firmš, nie wybaczš ci najmniejszego potknięcia. Duzi grajš według innych reguł. Dlatego wiele osób czuje się oszukiwanych. I chcš komuœ przytrzeć nosa.

To w takim razie, kto nami rzšdzi?

Zależy, o jaki poziom rzeczywistoœci chodzi, o jakie procesy. Ogromny wpływ majš giganty cyfrowe. W Warszawie Uberem kierujš Ukraińcy, Białorusini, Bułgarzy. Z ich punktu widzenia to pewnie zbawienie – nie muszš w Polsce nikogo znać, tylko się logujš, pracujš i mogš żyć na przyzwoitym poziomie, wyższym niż u nich. To ma wiele zalet. Jest jednak „ale". 25 proc. z każdej transakcji idzie do Krzemowej Doliny w Kalifornii. Wartoœć Ubera na giełdzie przekroczyła 60 mld dol. Tymczasem firma ta zarobione pienišdze inwestuje m.in. w prace nad autonomicznym pojazdem, który odbierze pracę tym, dzięki którym dziœ zarabia. Nauka w istocie jest bezradna. Nie jesteœmy w stanie opisać dzisiejszego œwiata w kategoriach, bo sens tracš podstawowe pojęcia. Na przykład pojęcie pracy. Wiele firm żeruje na nieopłaconych stażystach, ale istotniejsza jest kategoria prosumentów. Za usługi Google'a i FB nie wnosimy opłat. Ale nie sš za darmo. Każda chwila, którš spędzamy z tymi serwisami, zwiększa rynkowš wartoœć tych firm. Płacimy naszym czasem, uwagš, wreszcie danymi osobowymi. Praca: podstawowa kategoria stanowišca fundament ludzkiego œwiata, zupełnie się zmienia. Stare teorie tego nie łapiš, a nowe nie sš w stanie dać sobie rady z różnorodnoœciš, tempem i zakresem zmian. Przez wieki technologia służyła do podporzšdkowywania œwiata. Teraz technologia podporzšdkowuje sobie zarówno rzeczywistoœć pozaludzkš, jak i swego twórcę. Benedykt XVI w Bundestagu wskazał, że jeœli w centrum nie postawimy ekologii człowieka, to będziemy zgubieni.

Czy da się więc człowieka jeszcze uratować?

Jako badacz mam poważne wštpliwoœci. Jako człowiek, chciałbym wierzyć, że sobie z tym poradzimy.

Prof. Andrzej Zybertowicz jest socjologiem, doradcš prezydenta Andrzeja Dudy. W ubiegłym roku wraz z zespołem wydał ksišżkę „Samobójstwo Oœwiecenia? Jak neuronauka i nowe technologie pustoszš ludzki œwiat"

ródło: Plus Minus

WIDEO KOMENTARZ

REDAKCJA POLECA

NAJNOWSZE Z RP.PL