Dobra osobiste: algorytmy komputerowe też mogą dyskryminować

Modele matematyczne opracowują ludzie. Mogą więc powielać ich stereotypy i uprzedzenia.

Aktualizacja: 27.07.2017 11:59 Publikacja: 27.07.2017 08:33

Dobra osobiste: algorytmy komputerowe też mogą dyskryminować

Foto: 123RF

Przykładem niech będzie program w amerykańskim wymiarze sprawiedliwości. Na podstawie ankiety wypełnianej przez aresztowanych określa prawdopodobieństwo recydywy. Wynik analizy trafia do sądu, który kierując się nim, decyduje o przedłużeniu aresztu. Okazało się, że algorytm gorzej traktował czarnych, nawet jeśli popełnili takie same przestępstwa, a wcześniej nie byli karani. Znaczenie miała bowiem karalność członków rodziny czy mieszkanie w gorszej dzielnicy.

Z kolei system rekrutacyjny brytyjskiej uczelni medycznej dyskryminował kobiety oraz kandydatów z Indii i Pakistanu. Opierał się bowiem na danych historycznych, przypisujących im mniejsze predyspozycje do zawodu.

Znaczenie logarytmów rośnie. Decydują o udzieleniu pomocy bezrobotnym czy kredytu w banku. Często kryteria ich działania nie są jasne, a możliwości odwołania od wyniku ograniczone. Nawet jeśli komputer nie podejmuje ostatecznej decyzji, to jego wskazania są traktowane jako obiektywne i wiarygodne, mocno wpływając na stosunek prawdziwych decydentów do sprawy czy osoby.

W USA trwa już dyskusja o objęciu algorytmów kontrolą państwową na podobnej zasadzie jak np. nadzór budowlany. Miałaby ona wydawać licencje na algorytmy, monitorować. Stworzenie specjalnego urzędu zaproponował także niedawno minister sprawiedliwości Niemiec. Z kolei nowe unijne rozporządzenie o ochronie danych osobowych (RODO) ogranicza profilowanie automatyczne, czyli opieranie decyzji tylko na wskazaniach komputera.

– RODO skupia się jednak na rezultacie, a nie samej prawidłowości działania algorytmów – mówi Paweł Litwiński z Instytutu Allerhanda. – To poszkodowany musi wykazać, że niekorzystną dla niego decyzję podjęto tylko na podstawie automatycznego przetwarzania danych – dodaje.

Temat algorytmów pojawia się także przy okazji prac nad unijnym prawem o sztucznej inteligencji. Niektórzy proponują stworzenie specjalnej agencji ds. robotów. Mogłaby się ona zajmować także kwestią algorytmów.

Źródło Fundacja Panoptykon

Przykładem niech będzie program w amerykańskim wymiarze sprawiedliwości. Na podstawie ankiety wypełnianej przez aresztowanych określa prawdopodobieństwo recydywy. Wynik analizy trafia do sądu, który kierując się nim, decyduje o przedłużeniu aresztu. Okazało się, że algorytm gorzej traktował czarnych, nawet jeśli popełnili takie same przestępstwa, a wcześniej nie byli karani. Znaczenie miała bowiem karalność członków rodziny czy mieszkanie w gorszej dzielnicy.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Sąd Najwyższy orzekł w sprawie frankowiczów. Eksperci komentują
Prawo dla Ciebie
TSUE nakłada karę na Polskę. Nie pomogły argumenty o uchodźcach z Ukrainy
Praca, Emerytury i renty
Niepokojące zjawisko w Polsce: renciści coraz młodsi
Prawo karne
CBA zatrzymało znanego adwokata. Za rządów PiS reprezentował Polskę
Aplikacje i egzaminy
Postulski: Nigdy nie zrezygnowałem z bycia dyrektorem KSSiP