Brytyjscy uczniowie wybierający się na studia muszą zdawać egzaminy końcowe szkoły średniej na poziomie zaawansowanym i ich wynik w dużym stopniu decyduje o tym, na jakie uczelnie się dostaną. W 2020 roku na skutek restrykcji wprowadzonych podczas pandemii Covid-19 wielu uczniów nie mogło przystąpić do egzaminu osobiście, w związku z czym rząd brytyjski podjął decyzję, by zamiast tradycyjnych wyników egzaminu wykorzystać tym razem algorytm, który wyznaczy końcowe oceny uczniów. Przygotowany system komputerowy brał pod uwagę opinie nauczycieli, oceny osiągnięte na egzaminach próbnych i – co jest najistotniejsze z naszego punktu widzenia – wyniki egzaminów przeprowadzonych w danej szkole w poprzednich latach. Ten ostatni czynnik miał korygować zawyżanie ocen i pozwolić na standaryzację wyników w całym kraju. Jak się to skończyło? Ponad 40 procent uczniów otrzymało z egzaminu oceny niższe, niż spodziewali się ich nauczyciele, co wywołało powszechne oburzenie. Co gorsza, obniżenie ocen w większym stopniu dotknęło uczniów z mniej zamożnych okolic z uwagi na średnią ocen w ich szkole w minionych latach. Wielu uczniów nie dostało się na wymarzone uniwersytety, ponieważ ich oceny z egzaminu były niższe, niż się spodziewano. Według jednego z artykułów „zdolni uczniowie ze szkół, które w przeszłości osiągały słabe wyniki, spadali w rankingach czasami gwałtownie, ponieważ ich oceny zostały obniżone o dwa, trzy punkty z powodu wyników egzaminów przeprowadzonych w ich szkole w poprzednich latach, które nie miały z nimi nic wspólnego”.
Czytaj więcej
Czarna komedia, absurd, demonstracyjnie fikcyjne fabuły. Dzięki filmom Yorgosa Lanthimosa, takim jak wchodzące właśnie do kin „Rodzaje życzliwości”, możemy poczuć smak surrealizmu. Czy jednak można jeszcze tworzyć filmy nieobciążone polityką?
Stronnicza AI
W świecie sztucznej inteligencji takie sytuacje wcale nie należą do wyjątków. Nagłówki artykułów prasowych często sugerują, że AI jest niesprawiedliwa w odniesieniu do grup znajdujących się w niekorzystnej sytuacji. Z jej sugestii często korzysta się podczas zatrudniania pracowników, zwalniania, przyznawania podwyżek, udzielania kredytu hipotecznego czy pożyczki na prowadzenie działalności biznesowej i w wielu przypadkach dochodzi wówczas do gorszego traktowania między innymi osób o ciemnym kolorze skóry, kobiet, imigrantów, ludzi biednych, inwalidów czy osób niemieszczących się w typowym zakresie spektrum neuroróżnorodności. Systemy AI służące do wykrywania raka skóry działają gorzej w przypadku pacjentów o ciemnej karnacji, więc lekarze kierujący się ich wskazaniami rzadziej będą leczyć takie osoby. Jak się przekonamy, sztuczna inteligencja wykorzystywana do zapobiegania przestępczości częściej rekomenduje zatrzymanie oskarżonego w areszcie przed rozprawą i sugeruje odmowę zwolnienia za kaucją w przypadku przedstawicieli grup znajdujących się w gorszej sytuacji społecznej. Wszystkie tego typu działania są stronnicze w tym sensie, że liczby korzystnych i niepomyślnych decyzji są nieproporcjonalne zazwyczaj w taki sposób, że grupy w gorszej sytuacji są jeszcze bardziej pokrzywdzone, a uprzywilejowane odnoszą jeszcze większe korzyści. Gdy tego rodzaju uprzedzenia są nieuzasadnione – a tak jest niemal zawsze – to uważa się je za nieuczciwe lub niesprawiedliwe (obu tych określeń będziemy tu używali zamiennie).
Jeżeli jednak sztuczna inteligencja jest tak „inteligentna”, jak się uważa, to czy nie powinna wiedzieć, co zrobić, żeby uniknąć stronniczości? Choć systemy AI rozwijają się w zdumiewająco szybko, w tym jednym obszarze nie potrafią poczynić postępów. Jednym z podstawowych powodów, dla których – szczególnie systemy wykorzystujące uczenie maszynowe – bywają stronnicze, jest to, że bardzo trudno jest zebrać dane reprezentujące w adekwatny sposób wszystkie grupy społeczne i etniczne. W wielu przypadkach znalezienie ich jest po prostu zbyt kosztowne. W efekcie modele wyuczone na takich bazach zazwyczaj wysuwają trafniejsze rekomendacje w przypadku osób należących do grup, które są w nich lepiej reprezentowane. Właśnie dlatego mamy do czynienia ze zjawiskami takimi jak gorsze działanie systemów do rozpoznawania twarzy w przypadku osób ciemnoskórych – wynika to stąd, że zbiory danych używane do uczenia tego typu systemów zawierają w większości fotografie osób o jasnej karnacji.
Natura niesprawiedliwości
Ogólną przyczyną, dla której systemy sztucznej inteligencji są stronnicze, jest to, że to poszczególni ludzie i struktury społeczne bywają często stronniczy, a nasze uprzedzenia łatwo się przenoszą na tworzone modele AI. Za każdym razem, gdy ktoś decyduje o tym, jakie dane należy zgromadzić, opisuje zebrane informacje, wybiera te do wprowadzenia do algorytmu AI, określa cel dla powstającego systemu, wyznacza kryteria oceny jego działania lub ustala, jak należy reagować na jego rekomendacje, pojawia się ryzyko przekazania tworzonej właśnie sztucznej inteligencji naszych ludzkich uprzedzeń. Pod wieloma względami AI jest odzwierciedleniem jej twórców i środowiska, w jakim żyją. Jak mówią niektórzy, „uprzedzenia na wejściu, uprzedzenia na wyjściu”.