Publicystyka

Sprawa Cambridge Analytica: Demokracja algorytmów

Internetowe narzędzie miało w 2015 roku pomóc Andrzejowi Dudzie zwyciężyć w wyborach prezydenckich.
Rzeczpospolita, Robert Gardziński
Jeżeli Cambridge Analytica stworzyła mechanizm, który przyczynił się do politycznej mobilizacji większej liczby obywateli, to czy naprawdę firma ta przyczyniła się do „zniekształcenia" wyniku wyborów? – pyta publicysta.

Sztuczna inteligencja, uczące się algorytmy i big data (cyfrowe zbiory danych) to ostatnio bardzo gorące tematy. Czy słusznie obawiamy się buntu maszyn?

„The Guardian" rozpoczął kilka dni temu na nowo debatę wokół wpływu algorytmów na demokrację, tym razem w polskim kontekście. Narzędzie stworzone przez firmę Cambridge Analytica miało pomóc Andrzejowi Dudzie w zwycięstwie w wyborach prezydenckich. Dokładnie ten sam zarzut, pod adresem tej samej firmy był wysuwany w kontekście wyników ostatnich wyborów prezydenckich w USA oraz brexitu w 2016 roku. Chodzi mianowicie o to, że dzięki danym gromadzonym przez Facebooka możliwe stało się dokładniejsze profilowanie potencjalnych wyborców i skuteczniejsze docieranie do nich z konkretnymi informacjami.

Jak to działa?

Mechanizm działania tego narzędzia był następujący: jeżeli dysponujemy grupą osób, które obserwują na Facebooku pewnego polityka, to możemy dostrzec, że duża część z nich obserwuje również innego polityka tej samej partii lub publicystę o podobnej orientacji ideologicznej. Jest to dość oczywiste.

Niemniej takie platformy, jak Facebook czy Google, zbierają informacje nie tylko na temat jednej kategorii zainteresowań: przekazujemy im informacje na temat oglądanych filmów, odwiedzanych miejsc, słuchanej muzyki, czytanych książek, a nawet przebytych chorób. Każda aktywność – nie tylko „polubienie" jakiegoś posta czy strony, ale także wyszukiwanie czy oglądanie – zostawia na serwerze cyfrowy ślad. Żadna osoba na świecie nie będzie w stanie wgłębić się w czytanie naszej cyfrowej historii, ponieważ zajęłoby jej to zbyt dużo czasu. Jeżeli jednak oddamy to zadanie odpowiednio skonstruowanemu algorytmowi, będzie on w stanie te informacje uporządkować i skatalogować, a następnie zrobić z nich użytek. A to wszystko w ciągu ułamków sekundy.

Na podstawie danych zebranych z milionów facebookowych profili stworzono mechanizm, który dobierał osoby podatne na konkretne treści, a więc takie, które z wysokim prawdopodobieństwem zainteresowane będą takim, a nie innym przekazem. Następnie mechanizm „ułatwiał dostęp" do takich właśnie treści. Wpłynęło to oczywiście na ich popularność i przełożyło się na wyborczy wynik kandydatów prawicowych czy też głosowanie za wyjściem Wielkiej Brytanii z Unii Europejskiej.

Dzięki takiemu profilowaniu treści marketingowe, które wyświetlają się nam na portalach społecznościowych czy w sieciach reklamowych, są coraz lepiej dopasowane do naszych prawdopodobnych wyborów.

Oczywiście nie wszystkie treści targetowane są aż tak wyrafinowane – jeżeli robiliśmy zakup w sklepie z butami, to Facebook wyświetli nam reklamę tego sklepu na podstawie pliku cookie, który pobraliśmy przy wizycie. Może się jednak okazać, że reklamodawca wyświetla nam reklamę środka na problemy z prostatą, tylko dlatego, że powiedzieliśmy o sobie, że słuchamy polskiego rocka i czytamy książki o drugiej wojnie – mimo że fakty te nie są ze sobą w żaden oczywisty sposób związane. Algorytm „nie wie", że chodzi o wiek. „Wie" tylko, że sieć powiązań powoduje, że osoby posiadające takie, a nie inne zainteresowania, w przeszłości często klikały w reklamy leków na problemy z prostatą.

Cyfrowe stereotypy

Jest to więc proces analogiczny do tworzenia stereotypów: na podstawie pewnych informacji z przeszłości tworzymy sobie obraz jednostki, dokładając do tego kolejne skojarzenia. Jeżeli zauważymy dziesięciu Czechów, którzy piją piwo, tworzymy stereotyp pt. „Czesi piją piwo". Każdego następnego spotkanego Czecha będziemy wówczas postrzegać przez ten właśnie pryzmat.

Zapewne również dlatego internetowe narzędzia znalazły się na celowniku głównie lewicowych publicystów. W końcu lewica od lat walczy ze stereotypami. Często bowiem skojarzenia, które wiążą się z określonymi grupami społecznymi, bywają negatywne. Jest to zresztą oczywiste – stereotypizacja jest formą ewolucyjnego przetrwania w bardzo skomplikowanym świecie. Przetrwania, które polega w końcu na unikaniu zagrożeń. Szufladkowanie, nawet najbardziej prostackie, chociaż może być krzywdzące, jest jak najbardziej ewolucyjnie uzasadnione. Lewicowa narracja odrzuca jednak stereotypy jako nieuzasadnione, wprowadzając różnymi ścieżkami środki ochrony przed dyskryminacją.

Tym większym problemem dla wielu, zwłaszcza lewicowych, komentatorów stała się więc cyfrowa stereotypizacja, która wykluczała z podejmowania decyzji czynnik ludzki.

W zeszłym roku ukazała się w Polsce książka Cathy O'Neil „Broń matematycznej zagłady", opisująca wpływ algorytmizacji na życie społeczne. Stanowi ona w miarę aktualne zestawienie wszystkich najważniejszych argumentów w debacie na temat cyfrowej analityki. I tak amerykańskie banki odmawiały przyznania kredytu albo podnosiły wysokość składki ubezpieczeniowej dla osób czarnoskórych czy Latynosów, ponieważ z historycznych danych wynikało, że kredyty udzielane tym grupom obarczone są wysokim ryzykiem.

Tyle tylko, że decyzje te podejmowane była nie na podstawie koloru skóry wnioskodawcy, ale innych danych, które okazywały się być z pochodzeniem etnicznym skorelowane. Podobną tendencję zauważono w algorytmizacji pracy policji i prokuratury. Przy okazji warto dodać, że algorytmizacja decyzji ze skutkami prawnymi będzie ograniczona w całej Unii Europejskiej na mocy rozporządzenia o Ochronie Danych Osobowych, które wchodzi w życie 25 maja tego roku.

Wysłuchać milczącą większość

Jedynym argumentem, który dotyka relacji pomiędzy rzeczywistością a jej obrazem kreowanym przez cyfrowe narzędzia poznawcze, jest jak dotąd podważanie wartości danych, którymi karmi się algorytmy w procesie uczenia. Jeżeli więc dane będą „rasistowskie" – kiedy policjanci byli na przykład w przeszłości zmuszeni częściej i dokładniej kontrolować dzielnice zamieszkane przez mniejszości etniczne – to wyniki również nie będą poprawne politycznie.

Oczywiście, problem „przesądu" w zbieraniu danych jest ważnym zagadnieniem. W erze cyfrowej odchodzi on jednak w niepamięć. Dane, na których pracują algorytmy odpowiedzialne za profilowanie nie są już danymi deklaratywnymi, a więc informacjami, które świadomie przekazujemy drugiej stronie. Częściej stanowią zbiór, pozostawianych mimowolnie, cyfrowych śladów. I wbrew lewicowej narracji coraz częściej okazuje się, że tworzone w taki sposób stereotypy cyfrowe są wiernym odbiciem rzeczywistości. Co więcej, to właśnie sama lewica je potwierdza.

Od lat socjologowie i politologowie, zaangażowani zarówno w badanie, jak i wykorzystywanie danych do prowadzenia marketingu politycznego, borykają się z problemem „milczącej większości". Badanie rzeczywiście losowo dobranych prób jest metodologicznym wyzwaniem, któremu bardzo często trudno jest podołać. Fakt ten sprawia, że powtarzają się co jakiś czas wielkie wyborcze sensacje; kandydaci, którym sondaże przedwyborcze nie dawały większych szans, uzyskują doskonałe wyniki.

Ostatnie lata przyniosły podobne, niespodziewane rozstrzygnięcia, jak choćby zwycięstwo Andrzeja Dudy, wynik referendum w sprawie brexitu czy wreszcie triumf Donalda Trumpa. Większości z tych scenariuszy związani z lewicą komentatorzy nie przewidywali. Co więc się stało?

Refleksje na temat rzeczywistych przyczyn sukcesu, przykładowo, prawicowej oferty politycznej w Polsce – takie jak słynne badanie Macieja Gduli w Miastku – do tej pory są rzadkością. Zakładają one bowiem, że komentatorzy i badacze społeczni się mylili. A oni wszak mylić się nie mogą. Zadecydował więc inny czynnik, musiało dojść do wyborczej manipulacji. Kto maczał w niej palce? Rosja? Chiny? Teraz okazuje się, że internetowe algorytmy.

Uwierzyć w wolną wolę

Jeżeli Cambridge Analytica stworzyła mechanizm, który przyczynił się do politycznej mobilizacji większej liczby ludzi, obywateli, którzy w innym przypadku pozostaliby bierni, to czy naprawdę firma ta przyczyniła się do „zniekształcenia" wyniku wyborów?

Możemy oczywiście uznać, że widząc przekaz marketingowy dopasowany idealnie do naszego profilu, stajemy się bezwolni, działamy niejako automatycznie. Byłby to oczywiście bardzo smutny obraz świata i nas samych, ale nawet w tym przypadku nie mogłoby być mowy o „zagrabieniu demokracji", fałszerstwie czy manipulacji.

Natomiast jeżeli uznamy, że nie jesteśmy w pełni zdeterminowani, to każde podejmowane przez nas działanie, jest aktem wolnej woli. I nie zmieni tego nawet najbardziej wyrafinowany internetowy algorytm.

Olgierd Sroczyński jest autorem publikacji z zakresu filozofii politycznej i etyki gospodarczej.

Źródło: Rzeczpospolita

REDAKCJA POLECA

NAJNOWSZE Z RP.PL