Wprowadzane właśnie przez Facebooka zmiany mają na celu zmniejszenie wpływu ludzi na to, co wyświetla się jako popularne tematy. Zamiast krótkiego opisu — zwykle stworzonego przed człowieka — będzie tylko sucha informacja o liczbie użytkowników, którzy interesują się tym zagadnieniem. W ten sposób ludzie — i ich polityczne sympatie — nie będą miały znaczenia.
Modyfikacje to odległy efekt zarzutów o manipulowanie tym, co wyświetla się na stronach sieci społecznościowej. Anonimowy były pracownik Facebooka twierdził, że rutynowo ukrywa się materiały o wydźwięku konserwatywnym, a promuje te o wartościach lewicowych. Sprawa błyskawicznie stała się polityczna — m.in. za sprawą nadchodzących wyborów w USA.
Przy okazji wyszło na jaw, że ogromny Facebook (ma dziś 1,7 mld użytkowników), będący głównym kanałem dystrybucji treści z tradycyjnych mediów, zatrudnia zaledwie kilkunastu redaktorów (wg. Facebooka to „kuratorzy treści"). Sami nic nie tworzą, zajmują się za to promocją wybranych artykułów. To od nich w rzeczywistości zależało, czy określony materiał trafi do wielu odbiorców, czy przepadnie w informacyjnej powodzi. To właśnie ci „kuratorzy" mieli sprzyjać wartościom liberalnym, a konserwatywne — dyskryminować.
Wewnętrzne postępowanie Facebooka oczywiście nie potwierdziło tych informacji. Firma podkreśla, że nie znaleziono dowodów na istnienie „systematycznego" przechyłu światopoglądowego. Mark Zuckerberg zaprosił nawet czołowych amerykańskich prawicowych publicystów i polityków do dyskusji o „politycznym skrzywieniu" Facebooka.
Teraz, wiele miesięcy po wybuchu afery, kuratorzy będą mieli jeszcze mniej do powiedzenia niż na początku roku. Ich rola skurczy się do upewniania się, że prezentowane treści są rzeczywiście wiadomościami (występują w poważnych mediach) i nie powtarzają się. Facebook tłumaczy swoją decyzję o automatyzacji tego procesu chęcią rozszerzenia usług na cały świat.