Prenumerata 2018 ju˜ż w sprzedża˜y - SPRAWD˜!

Publicystyka

Sprawa Cambridge Analytica: Demokracja algorytmów

Internetowe narzędzie miało w 2015 roku pomóc Andrzejowi Dudzie zwyciężyć w wyborach prezydenckich.
Rzeczpospolita, Robert Gardziński
Jeżeli Cambridge Analytica stworzyła mechanizm, który przyczynił się do politycznej mobilizacji większej liczby obywateli, to czy naprawdę firma ta przyczyniła się do „zniekształcenia" wyniku wyborów? – pyta publicysta.

Sztuczna inteligencja, uczšce się algorytmy i big data (cyfrowe zbiory danych) to ostatnio bardzo goršce tematy. Czy słusznie obawiamy się buntu maszyn?

„The Guardian" rozpoczšł kilka dni temu na nowo debatę wokół wpływu algorytmów na demokrację, tym razem w polskim kontekœcie. Narzędzie stworzone przez firmę Cambridge Analytica miało pomóc Andrzejowi Dudzie w zwycięstwie w wyborach prezydenckich. Dokładnie ten sam zarzut, pod adresem tej samej firmy był wysuwany w kontekœcie wyników ostatnich wyborów prezydenckich w USA oraz brexitu w 2016 roku. Chodzi mianowicie o to, że dzięki danym gromadzonym przez Facebooka możliwe stało się dokładniejsze profilowanie potencjalnych wyborców i skuteczniejsze docieranie do nich z konkretnymi informacjami.

Jak to działa?

Mechanizm działania tego narzędzia był następujšcy: jeżeli dysponujemy grupš osób, które obserwujš na Facebooku pewnego polityka, to możemy dostrzec, że duża częœć z nich obserwuje również innego polityka tej samej partii lub publicystę o podobnej orientacji ideologicznej. Jest to doœć oczywiste.

Niemniej takie platformy, jak Facebook czy Google, zbierajš informacje nie tylko na temat jednej kategorii zainteresowań: przekazujemy im informacje na temat oglšdanych filmów, odwiedzanych miejsc, słuchanej muzyki, czytanych ksišżek, a nawet przebytych chorób. Każda aktywnoœć – nie tylko „polubienie" jakiegoœ posta czy strony, ale także wyszukiwanie czy oglšdanie – zostawia na serwerze cyfrowy œlad. Żadna osoba na œwiecie nie będzie w stanie wgłębić się w czytanie naszej cyfrowej historii, ponieważ zajęłoby jej to zbyt dużo czasu. Jeżeli jednak oddamy to zadanie odpowiednio skonstruowanemu algorytmowi, będzie on w stanie te informacje uporzšdkować i skatalogować, a następnie zrobić z nich użytek. A to wszystko w cišgu ułamków sekundy.

Na podstawie danych zebranych z milionów facebookowych profili stworzono mechanizm, który dobierał osoby podatne na konkretne treœci, a więc takie, które z wysokim prawdopodobieństwem zainteresowane będš takim, a nie innym przekazem. Następnie mechanizm „ułatwiał dostęp" do takich właœnie treœci. Wpłynęło to oczywiœcie na ich popularnoœć i przełożyło się na wyborczy wynik kandydatów prawicowych czy też głosowanie za wyjœciem Wielkiej Brytanii z Unii Europejskiej.

Dzięki takiemu profilowaniu treœci marketingowe, które wyœwietlajš się nam na portalach społecznoœciowych czy w sieciach reklamowych, sš coraz lepiej dopasowane do naszych prawdopodobnych wyborów.

Oczywiœcie nie wszystkie treœci targetowane sš aż tak wyrafinowane – jeżeli robiliœmy zakup w sklepie z butami, to Facebook wyœwietli nam reklamę tego sklepu na podstawie pliku cookie, który pobraliœmy przy wizycie. Może się jednak okazać, że reklamodawca wyœwietla nam reklamę œrodka na problemy z prostatš, tylko dlatego, że powiedzieliœmy o sobie, że słuchamy polskiego rocka i czytamy ksišżki o drugiej wojnie – mimo że fakty te nie sš ze sobš w żaden oczywisty sposób zwišzane. Algorytm „nie wie", że chodzi o wiek. „Wie" tylko, że sieć powišzań powoduje, że osoby posiadajšce takie, a nie inne zainteresowania, w przeszłoœci często klikały w reklamy leków na problemy z prostatš.

Cyfrowe stereotypy

Jest to więc proces analogiczny do tworzenia stereotypów: na podstawie pewnych informacji z przeszłoœci tworzymy sobie obraz jednostki, dokładajšc do tego kolejne skojarzenia. Jeżeli zauważymy dziesięciu Czechów, którzy pijš piwo, tworzymy stereotyp pt. „Czesi pijš piwo". Każdego następnego spotkanego Czecha będziemy wówczas postrzegać przez ten właœnie pryzmat.

Zapewne również dlatego internetowe narzędzia znalazły się na celowniku głównie lewicowych publicystów. W końcu lewica od lat walczy ze stereotypami. Często bowiem skojarzenia, które wišżš się z okreœlonymi grupami społecznymi, bywajš negatywne. Jest to zresztš oczywiste – stereotypizacja jest formš ewolucyjnego przetrwania w bardzo skomplikowanym œwiecie. Przetrwania, które polega w końcu na unikaniu zagrożeń. Szufladkowanie, nawet najbardziej prostackie, chociaż może być krzywdzšce, jest jak najbardziej ewolucyjnie uzasadnione. Lewicowa narracja odrzuca jednak stereotypy jako nieuzasadnione, wprowadzajšc różnymi œcieżkami œrodki ochrony przed dyskryminacjš.

Tym większym problemem dla wielu, zwłaszcza lewicowych, komentatorów stała się więc cyfrowa stereotypizacja, która wykluczała z podejmowania decyzji czynnik ludzki.

W zeszłym roku ukazała się w Polsce ksišżka Cathy O'Neil „Broń matematycznej zagłady", opisujšca wpływ algorytmizacji na życie społeczne. Stanowi ona w miarę aktualne zestawienie wszystkich najważniejszych argumentów w debacie na temat cyfrowej analityki. I tak amerykańskie banki odmawiały przyznania kredytu albo podnosiły wysokoœć składki ubezpieczeniowej dla osób czarnoskórych czy Latynosów, ponieważ z historycznych danych wynikało, że kredyty udzielane tym grupom obarczone sš wysokim ryzykiem.

Tyle tylko, że decyzje te podejmowane była nie na podstawie koloru skóry wnioskodawcy, ale innych danych, które okazywały się być z pochodzeniem etnicznym skorelowane. Podobnš tendencję zauważono w algorytmizacji pracy policji i prokuratury. Przy okazji warto dodać, że algorytmizacja decyzji ze skutkami prawnymi będzie ograniczona w całej Unii Europejskiej na mocy rozporzšdzenia o Ochronie Danych Osobowych, które wchodzi w życie 25 maja tego roku.

Wysłuchać milczšcš większoœć

Jedynym argumentem, który dotyka relacji pomiędzy rzeczywistoœciš a jej obrazem kreowanym przez cyfrowe narzędzia poznawcze, jest jak dotšd podważanie wartoœci danych, którymi karmi się algorytmy w procesie uczenia. Jeżeli więc dane będš „rasistowskie" – kiedy policjanci byli na przykład w przeszłoœci zmuszeni częœciej i dokładniej kontrolować dzielnice zamieszkane przez mniejszoœci etniczne – to wyniki również nie będš poprawne politycznie.

Oczywiœcie, problem „przesšdu" w zbieraniu danych jest ważnym zagadnieniem. W erze cyfrowej odchodzi on jednak w niepamięć. Dane, na których pracujš algorytmy odpowiedzialne za profilowanie nie sš już danymi deklaratywnymi, a więc informacjami, które œwiadomie przekazujemy drugiej stronie. Częœciej stanowiš zbiór, pozostawianych mimowolnie, cyfrowych œladów. I wbrew lewicowej narracji coraz częœciej okazuje się, że tworzone w taki sposób stereotypy cyfrowe sš wiernym odbiciem rzeczywistoœci. Co więcej, to właœnie sama lewica je potwierdza.

Od lat socjologowie i politologowie, zaangażowani zarówno w badanie, jak i wykorzystywanie danych do prowadzenia marketingu politycznego, borykajš się z problemem „milczšcej większoœci". Badanie rzeczywiœcie losowo dobranych prób jest metodologicznym wyzwaniem, któremu bardzo często trudno jest podołać. Fakt ten sprawia, że powtarzajš się co jakiœ czas wielkie wyborcze sensacje; kandydaci, którym sondaże przedwyborcze nie dawały większych szans, uzyskujš doskonałe wyniki.

Ostatnie lata przyniosły podobne, niespodziewane rozstrzygnięcia, jak choćby zwycięstwo Andrzeja Dudy, wynik referendum w sprawie brexitu czy wreszcie triumf Donalda Trumpa. Większoœci z tych scenariuszy zwišzani z lewicš komentatorzy nie przewidywali. Co więc się stało?

Refleksje na temat rzeczywistych przyczyn sukcesu, przykładowo, prawicowej oferty politycznej w Polsce – takie jak słynne badanie Macieja Gduli w Miastku – do tej pory sš rzadkoœciš. Zakładajš one bowiem, że komentatorzy i badacze społeczni się mylili. A oni wszak mylić się nie mogš. Zadecydował więc inny czynnik, musiało dojœć do wyborczej manipulacji. Kto maczał w niej palce? Rosja? Chiny? Teraz okazuje się, że internetowe algorytmy.

Uwierzyć w wolnš wolę

Jeżeli Cambridge Analytica stworzyła mechanizm, który przyczynił się do politycznej mobilizacji większej liczby ludzi, obywateli, którzy w innym przypadku pozostaliby bierni, to czy naprawdę firma ta przyczyniła się do „zniekształcenia" wyniku wyborów?

Możemy oczywiœcie uznać, że widzšc przekaz marketingowy dopasowany idealnie do naszego profilu, stajemy się bezwolni, działamy niejako automatycznie. Byłby to oczywiœcie bardzo smutny obraz œwiata i nas samych, ale nawet w tym przypadku nie mogłoby być mowy o „zagrabieniu demokracji", fałszerstwie czy manipulacji.

Natomiast jeżeli uznamy, że nie jesteœmy w pełni zdeterminowani, to każde podejmowane przez nas działanie, jest aktem wolnej woli. I nie zmieni tego nawet najbardziej wyrafinowany internetowy algorytm.

Olgierd Sroczyński jest autorem publikacji z zakresu filozofii politycznej i etyki gospodarczej.

ródło: Rzeczpospolita

WIDEO KOMENTARZ

REDAKCJA POLECA

NAJNOWSZE Z RP.PL