Uwięzieni w bańce Facebooka

Algorytmy sieci społecznościowych filtrują treści, które dla nas wyświetlają. Ale gorszymi cenzorami jesteśmy my sami.

Aktualizacja: 07.05.2015 20:35 Publikacja: 07.05.2015 20:21

Sieci społecznościowe starannie dobierają dla nas treści – muszą być zgodne z naszymi poglądami

Sieci społecznościowe starannie dobierają dla nas treści – muszą być zgodne z naszymi poglądami

Foto: AFP

Czy takie sieci jak Facebook czy Google+ ograniczają nasz dostęp do informacji niezgodnych z naszymi przekonaniami? A jeśli tak, to czy takie działanie nie ogranicza swobody dyskusji – szczególnie istotnej w kwestiach dyskusji światopoglądowej i demokratycznych wyborów?

Sprawa kształtowania postaw przez sieci społecznościowe jest na tyle poważnym zjawiskiem, że postanowili się nią zająć naukowcy. W dzisiejszym wydaniu prestiżowego „Science" troje specjalistów opisuje analizę zachowań ponad 10 mln użytkowników Facebooka obserwowanych od lipca 2014 roku do stycznia 2015 roku. Informacje o nich oczywiście pozbawiono szczegółów pozwalających zidentyfikować konkretne osoby.

„Obfitość treści w internecie daje użytkownikom ogromne możliwości wyboru, przesuwając funkcję decydowania o tym, co widzimy – z tradycyjnych redakcji ku sieciom społecznościowym i ich algorytmom sortowania informacji" – piszą w „Science" Eytan Bakshy, Solomon Messig i Lada Adamic. „To zmieniające się środowisko doprowadziło do sytuacji, którą niektórzy porównują do komory bezechowej – do użytkowników docierają tylko informacje od ludzi o takich samych poglądach i zainteresowaniach. Określane jest to również jako »bąbel informacyjny« – treści są wybierane przez algorytmy komputerowe na podstawie tego, co oglądaliśmy wcześniej".

O co dokładnie chodzi? Jak tłumaczy David Lazer ze Szkoły Administracji im. Johna F. Kennedy'ego Uniwersytetu Harvarda, to efekt technologii personalizacji treści.

– Ewolucja Google jest najlepszym przykładem. Zaczynali jako prosta wyszukiwarka oparta na popularności stron i strukturze linków między nimi – uważa Lazer. – Teraz to inny produkt dający spersonalizowane wyniki opierające się na wynikach wcześniejszych wyszukiwań oraz na informacji kontekstowej – na przykład położeniu geograficznym.

Taki mechanizm na pierwszy rzut oka jest korzystny. Pytając o najlepszą pizzę, otrzymamy wyniki uwzględniające lokalizację (czyli w Warszawie nie dostaniemy wyników dla Gdańska), w dodatku z rekomendacjami znajomych (co dodaje wiarygodności). Wygodne, ale zawsze będą to informacje, z którymi w zasadzie się zgadzamy.

– W innym kontekście personalizacja nie jest już taka dobra. Trzeba zadać pytania o równość i demokrację. Czy sztuczny dobór treści nie przekreśla roli Facebooka jako forum publicznej wymiany myśli? – pyta Lazer. – Powód wprowadzenia personalizacji jest jasny – taki Facebook wyłuskuje dla nas perły z zalewu śmieci, licząc na to, że chętniej w coś klikniemy. Pytanie brzmi – co przegapiamy?

Naukowcy publikujący dziś w „Science" wykorzystali komputery analizujące treści przeglądane przez użytkowników Facebooka oraz pochodzenie tych artykułów. Dzięki temu wiedzieli, czy artykuł, który zamieścili na swoim Facebooku użytkownicy, dotyczył sportu czy spraw politycznych i jakie miał nastawienie (konserwatywne czy liberalne). Pomogli sobie również analizą pochodzenia artykułu – na przykład materiały z FoxNews.com są raczej konserwatywne, a te z HuffingtonPost.com raczej liberalne.

Następnie porównali efekty działania algorytmu decydującego o wyświetlaniu treści na stronie Facebooka oraz rzeczywisty skutek – czyli kliknięcia użytkowników w linki prowadzące do artykułów. Okazało się, że Facebook rzeczywiście zamyka w informacyjnym bąblu – w zależności od swoich poglądów użytkownicy widzą od 5 do 8 proc. mniej treści niezgodnych z deklarowanymi poglądami. Drugi wniosek – sami jesteśmy jeszcze gorszymi cenzorami – własne przekonania zmniejszają prawdopodobieństwo przeczytania „niezgodnego ze światopoglądem" artykułu nawet o 17 proc.

Efekt dopasowania wyświetlanych treści przez algorytmy Facebooka jest zatem mniejszy niż skutki świadomych wyborów użytkowników – to, z kim się przyjaźnią czy jakie artykuły czytają. Nic dziwnego, w końcu czytelnik „Rzeczpospolitej" zapewne w kilku kwestiach będzie się różnił od czytelnika „Gazety Wyborczej". Jednak najważniejszym wnioskiem z tego eksperymentu jest to, że maszyny rzeczywiście wpływają na nasze postrzeganie świata.

– Mały efekt dziś może stać się wielkim jutro – orzeka Lazer. Wskazuje również, że programy decydujące o tym, co, gdzie i w jaki sposób widzimy, stały się już tak skomplikowane, że żaden człowiek nie jest w stanie przeanalizować ich działania i efektów, jakie przynoszą użytkownikom. W końcu naukowcy badający efekty algorytmów Facebooka sami pracują w Facebooku.

Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska