W ostatnich latach urzędy skarbowe, zarówno w Polsce, jak i na świecie, zaczęły intensywnie wykorzystywać techniki uczenia maszynowego do analizy naszych podatków – przetwarzania ogromnych ilości danych.
Dzięki zdolnościom do wychwytywania ukrytych wzorców i anomalii algorytmy pomagają wykrywać nieprawidłowości i potencjalne oszustwa, przejmując część zadań, które dotąd wymagały żmudnej, ręcznej pracy.
Jednak czy „sito algorytmu” wystarczy, by zarzucić komuś nieuczciwe działanie i jednocześnie przekonująco je uzasadnić?
Odpowiedzi na to pytanie szukał dr Łukasz Górski z Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego wraz z międzynarodowym zespołem badaczy, we współpracy z organami podatkowymi z Buenos Aires.
Cyfrowe dylematy prawa podatkowego
Wykorzystywanie sztucznej inteligencji w sektorze publicznym – także w administracji skarbowej – podlega ścisłym ograniczeniom prawnym. W większości państw obowiązuje zasada legalności: urzędy mogą działać wyłącznie na podstawie i w granicach prawa.
Istnieje też obowiązek uzasadniania decyzji, który wymaga wskazania faktów i przepisów będących podstawą rozstrzygnięcia. Dlatego niezależnie od tego, czy sztuczna inteligencja podejmuje decyzję, czy tylko wspiera człowieka, jej rola musi być jasno wyjaśniona.
Tu pojawia się kluczowy problem: podatnicy mają prawo wiedzieć, jak i dlaczego algorytm doszedł do określonej decyzji. Odpowiedzią na to wyzwanie jest tzw. wyjaśnialna sztuczna inteligencja (ang. Explainable AI, XAI). Jej zadaniem jest pokazanie, jak system przetwarza dane i na jakiej podstawie formułuje wnioski.
W przeciwieństwie do XAI, AI, z jaką mamy najczęściej do czynienia, działa w sposób trudny do prześledzenia. Widzimy dane wejściowe i końcowy wynik, ale droga, która do niego prowadzi, jest trudna do szczegółowego wyjaśnienia. Wewnątrz takiego systemu działa model matematyczny z milionami lub miliardami parametrów, opisujących, jak silne są powiązania między elementami sieci. Algorytm nie rozumie decyzji – jedynie oblicza, które rozwiązanie jest najbardziej prawdopodobne. „Decyzja” AI to wybór opcji o najwyższym prawdopodobieństwie sukcesu, zgodnie z wyuczonymi wzorcami.
Pytanie brzmi więc: czy obecne metody XAI potrafią naprawdę wyjaśnić ten proces w sposób zrozumiały i zgodny z wymogami prawa?
Jak wytrenować wykrywacz oszustw podatkowych
Badania dra Łukasza Górskiego opierały się na studium przypadku – prototypowym detektorze oszustw podatkowych. Powstał on we współpracy z administracją podatkową stolicy Argentyny – Buenos Aires. Badaczom udostępniono dane dotyczące działalności tamtejszych barów i restauracji.
To jedno z pierwszych badań na świecie, które sprawdza, jak systemy wyjaśnialnej AI mogłyby działać w administracji podatkowej.
– Organy z Buenos Aires dążyły do tego, aby stworzyć system będący w stanie wykryć oszustwa podatkowe. Udostępniły nam one zanonimizowane dane dotyczące barów i restauracji w Buenos Aires. Użyliśmy ich do tego, aby spróbować wytrenować różnego rodzaju systemy, które służyłyby do wykrywania oszustw podatkowych w sposób automatyczny. Na tym właśnie zależało organom podatkowym w Buenos Aires. Dla nas najistotniejsze było, czy potrafimy wyjaśnić decyzję, którą zaproponowała sztuczna inteligencja. Zastosowaliśmy kilka istniejących systemów sztucznej inteligencji i powiązaliśmy je ze znanymi metodologiami służącymi do generowania wyjaśnień – mówi dr Górski.
System detekcji trenowano na zanonimizowanym zbiorze danych pochodzącym z rzeczywistych przypadków analizowanych przez władze podatkowe w Buenos Aires. Zbiór obejmował dziesięć cech binarnych (zero/jeden), opisujących fakty, które administracja skarbowa bierze pod uwagę przy ocenie ryzyka oszustwa – takich jak zaniżanie sprzedaży, rozbieżności między kosztami pracy a przychodami czy nadmierne potrącenia.
W badaniach wykorzystano różne modele klasyfikacyjne, m.in. sieci neuronowe i drzewa decyzyjne. Badacze stworzyli również syntetyczny zbiór danych, który wiernie naśladował strukturę próbek w oryginalnym zbiorze.
Czarne i białe skrzynki
Kluczowym elementem projektu było porównanie różnych metod tzw. wyjaśnialnej sztucznej inteligencji (XAI). Najpierw badacze analizowali modele przejrzyste, tzw. białe skrzynki – takie jak lista reguł Bayesa – których sposób działania można wprost opisać zestawem reguł. Następnie zajęli się modelami trudniejszymi do interpretacji, takimi jak sieci neuronowe – to czarne skrzynki – w których zależności między danymi są znacznie bardziej złożone.
Lista reguł Bayesa to model oparty na prawdopodobieństwie warunkowym. Opisuje decyzję za pomocą prostych zasad logicznych typu „jeśli–to”, z przypisanym prawdopodobieństwem, że dane zjawisko jest np. oszustwem podatkowym. Dzięki temu można jasno wskazać, które czynniki zadecydowały o wyniku.
W przypadku modeli trudniejszych do interpretacji, takich jak sieci neuronowe, wykorzystano metody wyjaśniania ich decyzji takie jak m.in. LIME, SHAP, Anchors oraz counterfactuals. Każda z nich działa nieco inaczej.
LIME tworzy uproszczony, lokalny model, który tłumaczy, dlaczego algorytm podjął konkretną decyzję w danym przypadku, np.: pokazuje, że restauracja została uznana za ryzykowną, bo zaniżyła sprzedaż i miała zbyt niskie koszty pracy w stosunku do przychodów.
SHAP pokazuje, jak duży wpływ miała każda z analizowanych cech – na przykład wysokość sprzedaży czy liczba pracowników – na końcową decyzję algorytmu.
Anchors generuje proste reguły warunkowe typu „jeśli–to”, które tłumaczą decyzję niezależnie od innych danych. Przykład? Jeśli firma przez trzy miesiące z rzędu nie zgłaszała pracowników, to prawdopodobieństwo oszustwa podatkowego jest wysokie.
A kontrfaktyczne wyjaśnienia (ang. counterfactuals) pokazują natomiast, jak niewielka zmiana w danych wejściowych mogłaby doprowadzić do innego wyniku – np. Gdyby restauracja wykazała o 10% wyższy obrót, system nie zakwalifikowałby jej jako podejrzanej.
AI nie zastąpi człowieka całkowicie, ale zmieni sposób, w jaki urzędnicy i prawnicy analizują dane i podejmują decyzje. Fot. Freepik
Jak wytłumaczyć prawnikowi decyzję alogrytmu?
W trakcie pracy międzynarodowego zespołu szybko okazało się, że połączenie świata technologii i prawa wcale nie jest proste.
– To były jedne z ciekawszych badań o charakterze interdyscyplinarnym, które prowadziłem. Jeden z pierwszych przypadków, kiedy na tak dużą skalę współpracowaliśmy z osobami z jednej strony z doświadczeniem technicznym, a z drugiej z doświadczeniem prawniczym i widać było, że dla wszystkich nawiązanie współpracy, opracowanie wspólnego języka i sposobu komunikacji stanowiło bardzo duże wyzwanie – wspomina dr Górski.
Kluczowe okazało się rozróżnienie między pojęciami interpretowalności i wyjaśnialności, które opisują, na ile można zrozumieć, jak model sztucznej inteligencji doszedł do określonego wyniku (na przykład, jakie dane wejściowe i operacje matematyczne na niego wpłynęły).
Jeszcze inną kategorią jest uzasadnienie – czyli prawnicze wyjaśnienie decyzji, oparte na faktach i przepisach prawa.
Z badań wynika, że obecne techniki wyjaśnialnej sztucznej inteligencji wciąż nie wystarczają, by tworzyć uzasadnienia zgodne z wymogami prawa.
Wyjaśnienia generowane przez algorytmy mają charakter czysto techniczny – opisują, jak system przetwarzał dane, ale nie odnoszą się do przepisów ani faktów sprawy. Prawnik czy podatnik, który otrzymałby taki raport, prawdopodobnie nie zrozumiałby jego znaczenia. Czułby się zagubiony, ponieważ nie operuje terminami takimi jak sieć neuronowa. Ważne są dla niego konkretne dowody i podstawy prawne decyzji.
– Przez wyjaśnienie rozumieliśmy ten aspekt, który miał charakter stricte techniczny, czyli opisywaliśmy, jakie dane przyjął nasz system, jak one były zakodowane i w jaki sposób transformowane za pomocą odpowiednich operacji matematycznych, aby wypróbować konkretny wynik. Natomiast gdybyśmy mieli to przedstawić prawnikom czy osobom, które są podejrzane, to byłby to dla nich kompletny koszmar. Wymagałoby to od nich kompetencji, których nie posiadają, żeby zrozumieć, po pierwsze, w jaki sposób działa ten system, po drugie, w jaki sposób się to stosuje do przepisów prawa, które spowodowały, że osoby te podlegają takiemu a nie innemu postępowaniu podatkowemu – wyjaśnia badacz.
Urzędnik jeszcze nie straci pracy
Z przeprowadzonych analiz wynika, że żadne z testowanych narzędzi wyjaśnialnej sztucznej inteligencji nie spełnia jeszcze standardów „oczekiwanych” w prawie podatkowym.
LIME uzyskała najwyższe oceny eksperckie pod względem zrozumiałości i równowagi między prostotą a trafnością wyjaśnień. Listy reguł Bayesa okazały się najbardziej przejrzyste i najlepiej ocenione pod względem zrozumiałości i możliwości oceny wyników przez człowieka. Badacze sugerują, że przyszłe rozwiązania mogłyby łączyć prostotę takich modeli z mocą obliczeniową sieci neuronowych, co pozwoliłoby tworzyć bardziej czytelne, a jednocześnie skuteczne systemy podatkowe oparte na AI.
W szerszej perspektywie autorzy podkreślają, że transparentna i wyjaśnialna sztuczna inteligencja może zwiększyć zaufanie podatników do instytucji publicznych i poprawić tzw. moralność podatkową (a to oznacza mniej nadużyć). AI nie zastąpi jednak człowieka całkowicie – ale zmieni sposób, w jaki urzędnicy i prawnicy analizują dane i podejmują decyzje.
Czytaj więcej na: serwisnaukowy.uw.edu.pl
dr Łukasz Górski, adiunkt w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego oraz na Wydziale Matematyki i Informatyki Uniwersytetu Mikołaja Kopernika w Toruniu. Stopień doktora uzyskał za pracę poświęconą opracowaniu nowych metod programowania. Jest również dr. nauk prawnych. Kieruje międzynarodowym projektem badawczym z zakresu wyjaśnialnej sztucznej inteligencji w prawie. Jest autorem publikacji obejmujących zagadnienia programowania równoległego oraz epidemiologii.
Materiał Partnera