Algorytmy automatycznie przetwarzające dane i podejmujące decyzje, oparte na technologii sztucznej inteligencji (AI), stają się powoli rzeczywistością także w Polsce. Jednym z ostatnich zastosowań jest określanie zdolności kredytowej (scoring) w oparciu o dane z oficjalnych rejestrów lub historii rachunku bankowego (co stało się możliwe w wyniku wdrożenia dyrektywy PSD2). Warto zatem zwrócić uwagę, iż (oprócz innych wymagań prawnych) twórcy takich algorytmów powinni zwracać uwagę na ryzyko dyskryminacji w wyniku działania algorytmu.
Algorytm mnie nie lubi!
Jakkolwiek doświadczenia z działaniem systemów sztucznej inteligencji są na razie raczej ograniczone, to ujawnił się już jeden z problemów prawnych związanych z systemami automatycznie przetwarzającymi dane i podejmującymi decyzje – otóż, okazuje się, że rezultaty działania tych systemów mogą wskazywać na dyskryminację „zaszytą" w algorytmie. To zaś pociąga za sobą możliwość wystąpienia ważnych skutków prawnych, w szczególności roszczeń osób dyskryminowanych.
Czytaj także: Ostatnie słowo i tak będą mieli ludzie - prawnicy o sztucznej inteligencji w przedsiębiorstwach
Praktyka kilku ostatnich lat pokazuje szereg przypadków, gdy mechanizm działania AI dyskryminował niektóre osoby (np. z powodu ich rasy, pochodzenia, płci) – na przykład:
a) w lutym 2018 r. naukowiec z MIT ogłosił, że trzy z ostatnich systemów AI rozpoznających płeć na podstawie zdjęć miały 99-procentową skuteczność w rozpoznawaniu płci – ale tylko w odniesieniu do białych mężczyzn; w przypadku, na przykład, ciemnoskórych kobiet skuteczność spadała do 35 procent, gdyż prawdopodobne system AI był rozwijany głównie w oparciu o zdjęcia białych mężczyzn;