fbTrack
REKLAMA
REKLAMA

Nowe technologie

Uwięzieni w bańce Facebooka

Sieci społecznościowe starannie dobierają dla nas treści – muszą być zgodne z naszymi poglądami
AFP
Algorytmy sieci społecznościowych filtrują treści, które dla nas wyświetlają. Ale gorszymi cenzorami jesteśmy my sami.

Czy takie sieci jak Facebook czy Google+ ograniczają nasz dostęp do informacji niezgodnych z naszymi przekonaniami? A jeśli tak, to czy takie działanie nie ogranicza swobody dyskusji – szczególnie istotnej w kwestiach dyskusji światopoglądowej i demokratycznych wyborów?

Sprawa kształtowania postaw przez sieci społecznościowe jest na tyle poważnym zjawiskiem, że postanowili się nią zająć naukowcy. W dzisiejszym wydaniu prestiżowego „Science" troje specjalistów opisuje analizę zachowań ponad 10 mln użytkowników Facebooka obserwowanych od lipca 2014 roku do stycznia 2015 roku. Informacje o nich oczywiście pozbawiono szczegółów pozwalających zidentyfikować konkretne osoby.

„Obfitość treści w internecie daje użytkownikom ogromne możliwości wyboru, przesuwając funkcję decydowania o tym, co widzimy – z tradycyjnych redakcji ku sieciom społecznościowym i ich algorytmom sortowania informacji" – piszą w „Science" Eytan Bakshy, Solomon Messig i Lada Adamic. „To zmieniające się środowisko doprowadziło do sytuacji, którą niektórzy porównują do komory bezechowej – do użytkowników docierają tylko informacje od ludzi o takich samych poglądach i zainteresowaniach. Określane jest to również jako »bąbel informacyjny« – treści są wybierane przez algorytmy komputerowe na podstawie tego, co oglądaliśmy wcześniej".

O co dokładnie chodzi? Jak tłumaczy David Lazer ze Szkoły Administracji im. Johna F. Kennedy'ego Uniwersytetu Harvarda, to efekt technologii personalizacji treści.

– Ewolucja Google jest najlepszym przykładem. Zaczynali jako prosta wyszukiwarka oparta na popularności stron i strukturze linków między nimi – uważa Lazer. – Teraz to inny produkt dający spersonalizowane wyniki opierające się na wynikach wcześniejszych wyszukiwań oraz na informacji kontekstowej – na przykład położeniu geograficznym.

Taki mechanizm na pierwszy rzut oka jest korzystny. Pytając o najlepszą pizzę, otrzymamy wyniki uwzględniające lokalizację (czyli w Warszawie nie dostaniemy wyników dla Gdańska), w dodatku z rekomendacjami znajomych (co dodaje wiarygodności). Wygodne, ale zawsze będą to informacje, z którymi w zasadzie się zgadzamy.

– W innym kontekście personalizacja nie jest już taka dobra. Trzeba zadać pytania o równość i demokrację. Czy sztuczny dobór treści nie przekreśla roli Facebooka jako forum publicznej wymiany myśli? – pyta Lazer. – Powód wprowadzenia personalizacji jest jasny – taki Facebook wyłuskuje dla nas perły z zalewu śmieci, licząc na to, że chętniej w coś klikniemy. Pytanie brzmi – co przegapiamy?

Naukowcy publikujący dziś w „Science" wykorzystali komputery analizujące treści przeglądane przez użytkowników Facebooka oraz pochodzenie tych artykułów. Dzięki temu wiedzieli, czy artykuł, który zamieścili na swoim Facebooku użytkownicy, dotyczył sportu czy spraw politycznych i jakie miał nastawienie (konserwatywne czy liberalne). Pomogli sobie również analizą pochodzenia artykułu – na przykład materiały z FoxNews.com są raczej konserwatywne, a te z HuffingtonPost.com raczej liberalne.

Następnie porównali efekty działania algorytmu decydującego o wyświetlaniu treści na stronie Facebooka oraz rzeczywisty skutek – czyli kliknięcia użytkowników w linki prowadzące do artykułów. Okazało się, że Facebook rzeczywiście zamyka w informacyjnym bąblu – w zależności od swoich poglądów użytkownicy widzą od 5 do 8 proc. mniej treści niezgodnych z deklarowanymi poglądami. Drugi wniosek – sami jesteśmy jeszcze gorszymi cenzorami – własne przekonania zmniejszają prawdopodobieństwo przeczytania „niezgodnego ze światopoglądem" artykułu nawet o 17 proc.

Efekt dopasowania wyświetlanych treści przez algorytmy Facebooka jest zatem mniejszy niż skutki świadomych wyborów użytkowników – to, z kim się przyjaźnią czy jakie artykuły czytają. Nic dziwnego, w końcu czytelnik „Rzeczpospolitej" zapewne w kilku kwestiach będzie się różnił od czytelnika „Gazety Wyborczej". Jednak najważniejszym wnioskiem z tego eksperymentu jest to, że maszyny rzeczywiście wpływają na nasze postrzeganie świata.

– Mały efekt dziś może stać się wielkim jutro – orzeka Lazer. Wskazuje również, że programy decydujące o tym, co, gdzie i w jaki sposób widzimy, stały się już tak skomplikowane, że żaden człowiek nie jest w stanie przeanalizować ich działania i efektów, jakie przynoszą użytkownikom. W końcu naukowcy badający efekty algorytmów Facebooka sami pracują w Facebooku.

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA
REKLAMA