Czy takie sieci jak Facebook czy Google+ ograniczają nasz dostęp do informacji niezgodnych z naszymi przekonaniami? A jeśli tak, to czy takie działanie nie ogranicza swobody dyskusji – szczególnie istotnej w kwestiach dyskusji światopoglądowej i demokratycznych wyborów?
Sprawa kształtowania postaw przez sieci społecznościowe jest na tyle poważnym zjawiskiem, że postanowili się nią zająć naukowcy. W dzisiejszym wydaniu prestiżowego „Science" troje specjalistów opisuje analizę zachowań ponad 10 mln użytkowników Facebooka obserwowanych od lipca 2014 roku do stycznia 2015 roku. Informacje o nich oczywiście pozbawiono szczegółów pozwalających zidentyfikować konkretne osoby.
„Obfitość treści w internecie daje użytkownikom ogromne możliwości wyboru, przesuwając funkcję decydowania o tym, co widzimy – z tradycyjnych redakcji ku sieciom społecznościowym i ich algorytmom sortowania informacji" – piszą w „Science" Eytan Bakshy, Solomon Messig i Lada Adamic. „To zmieniające się środowisko doprowadziło do sytuacji, którą niektórzy porównują do komory bezechowej – do użytkowników docierają tylko informacje od ludzi o takich samych poglądach i zainteresowaniach. Określane jest to również jako »bąbel informacyjny« – treści są wybierane przez algorytmy komputerowe na podstawie tego, co oglądaliśmy wcześniej".
O co dokładnie chodzi? Jak tłumaczy David Lazer ze Szkoły Administracji im. Johna F. Kennedy'ego Uniwersytetu Harvarda, to efekt technologii personalizacji treści.
– Ewolucja Google jest najlepszym przykładem. Zaczynali jako prosta wyszukiwarka oparta na popularności stron i strukturze linków między nimi – uważa Lazer. – Teraz to inny produkt dający spersonalizowane wyniki opierające się na wynikach wcześniejszych wyszukiwań oraz na informacji kontekstowej – na przykład położeniu geograficznym.
Taki mechanizm na pierwszy rzut oka jest korzystny. Pytając o najlepszą pizzę, otrzymamy wyniki uwzględniające lokalizację (czyli w Warszawie nie dostaniemy wyników dla Gdańska), w dodatku z rekomendacjami znajomych (co dodaje wiarygodności). Wygodne, ale zawsze będą to informacje, z którymi w zasadzie się zgadzamy.
– W innym kontekście personalizacja nie jest już taka dobra. Trzeba zadać pytania o równość i demokrację. Czy sztuczny dobór treści nie przekreśla roli Facebooka jako forum publicznej wymiany myśli? – pyta Lazer. – Powód wprowadzenia personalizacji jest jasny – taki Facebook wyłuskuje dla nas perły z zalewu śmieci, licząc na to, że chętniej w coś klikniemy. Pytanie brzmi – co przegapiamy?