Współzałożyciel Facebooka Mark Zukerberg nie odkrył Ameryki, kiedy stwierdził, że wiewiórka umierająca w naszym ogródku jest ważniejsza niż ludzie umierający w Afryce. Tak było zawsze – również przed Internetem. Tyle że Internet miał to zmienić. Łącząc nas z całym światem, miał być nadzieją dla społeczeństwa i demokracji. Miał dostarczyć nam wiedzy o każdym zakątku świata i pełny przekrój opinii na każdy temat. Dlaczego tak się nie dzieje?
Pół roku temu Eli Pariser, działacz amerykańskiej organizacji stawiającej sobie za cel aktywizację polityczną wyborców MoveOn.org, podczas konferencji TED pokazał na przykładzie swojego komputera i komputerów swoich znajomych, jak bardzo różnią się ich obrazy świata budowane na podstawie tego, co widzą w Google czy na Faceboku. I to tylko dlatego, że mieszkają oni gdzie indziej i inne rzeczy interesowały ich w przeszłości. Pariser deklarujący się jako „nowoczesny politycznie" odkrył pewnego dnia, że „konserwatyści" zniknęli z jego strumienia aktualności w serwisie społecznościowym Facebook. Okazało się, że portal sprawdzał, w czyje wpisy Pariser klikał częściej i które częściej „lubił". A ponieważ z większym zainteresowaniem śledził poczynania „liberałów" – serwis przestał pokazywać to, co piszą konserwatyści. Co ważne – zrobił to bez pytania, czy użytkownik tego chce. Zainteresowany tym faktem Pariser poprosił znajomych, aby w najpopularniejszą na świecie wyszukiwarkę – Google – wpisali hasło „Egipt" i przesłali mu wyniki, jakie otrzymali. Po porównaniu dwóch z nich okazało się, że o ile jeden na pierwszej, kluczowej stronie z wynikami otrzymał większość newsów dotyczących protestów w Egipcie, o tyle ten drugi z pierwszej strony nie dowiedziałby się w ogóle, że cokolwiek niezwykłego dzieje się w Kairze...
?
Za „znikanie konserwatystów" i różne obrazy Egiptu odpowiadają mechanizmy społecznościowych poleceń stosowane przez serwisy takie jak Facebook oraz personalizacja wyników wyszukiwania, stosowana m.in. przez Google. W skrócie: wyszukiwarki odpowiadają na nasze pytania na podstawie historii tego, czego szukaliśmy już wcześniej, miejsca, w którym jesteśmy itd. Portale społecznościowe z kolei pomagają nam odnaleźć się w zalewie informacji i na podstawie naszych wcześniejszych aktywności dostarczają nam to, co najbardziej nas interesuje. Dlatego różni ludzie, szukając w Internecie tego samego – otrzymują lub mogą otrzymać różne wyniki.
W codziennym życiu te mechanizmy są oczywiście niezwykle wygodne i pomocne. Gdy wpisujemy w wyszukiwarkę „pizza", łatwo znajdziemy pizzerię zlokalizowaną 200 metrów od mieszkania i oferującą wegetariańskie dania (bo przecież takich szukaliśmy ostatnio). Ale czy fakt, że kiedy szukamy czegoś w internetowej wyszukiwarce, otrzymujemy to, co chcemy lub wydaje nam się, że chcemy, ale nie to samo co nasz kolega z pracy, to wspaniały wynalazek czy niebezpieczeństwo?
Pariser nazywa ten efekt „bąblem filtrowym" – nasza aktywność w sieci zamyka nas w osobistym świecie informacji. W zależności od tego, kim jesteś, co robisz i kogo lubisz – tworzysz (nieświadomie) swój własną informacyjną rzeczywistość. Ale to nie ty decydujesz, co jest w środku tego świata (bąbla). I – co ważniejsze – im dłużej w nim jesteś, tym bardziej zaczynasz tracić świadomość, co jest poza nim. Napotykasz kolejne opinie potwierdzające jedną wizję świata, co utwierdza twoją wiarę w to, że inne przekonania są błędne. Internetowy sklep poleca ci kolejne płyty z gatunku latin jazz, ale rzadko zasugeruje, że coś ciekawego dzieje się w indie rocku. Dostaniesz zniżkę na dziesiątą książkę Llosy, ale być może przez to nie poznasz dziewięciu innych autorów, z których jeden zmieniłby twoje życie. W długim okresie algorytmy mogą więc znacząco zawężać nasz obraz świata. Dostrzegają to już naukowcy, dziennikarze, ale i ludzie odpowiedzialni za taką, a nie inną architekturę globalnej sieci.