Łodygowski opisuje działania w ramach strategii, która ma doprowadzić do stworzenia „AI-driven workflow” do 2030 r. Wyjaśnia, dlaczego AI nie może być celem samym w sobie, jak poradzić sobie ze strachem pracowników przed automatyzacją i dlaczego w branży windykacyjnej kluczowe są transparentność i etyka w zarządzaniu petabajtami danych.

KRUK od ponad 25 lat działa na rynku w specyficznej branży zarządzania wierzytelnościami. To z jednej strony dane milionów klientów, z drugiej równie wiele transakcji. Jakie miejsce w strategii biznesowej grupy ma sztuczna inteligencja?

Adam Łodygowski: Dziś kluczowe jest świadome jej wdrożenie, czyli dobre zrozumienie, w których miejscach AI powinna być wykorzystywana, a w których nie. Przez wiele lat KRUK rozwijał się bardzo dynamicznie, ale biznesowe funkcjonalności były dużo ważniejsze niż strukturalne podejście do prowadzenia organizacji, zarówno pod względem technologicznym, jak i danych. Doszliśmy jednak do wniosku, że jako organizacja, którą zajmuje 13 mln spraw prawie 10 mln klientów, a ilość danych liczymy już w petabajtach, musimy wykorzystać szanse, które daje AI. 

Dlatego naszą transformację opieramy na trzech filarach. Pierwszy to technologia, czyli możliwość stosunkowo łatwego zaadaptowania mechanizmów AI. Drugi to praca z danymi: szeroko rozumiane data governance – dobra organizacja i takie poukładanie danych, żeby były jednoznacznie interpretowalne. Trzeci filar naszej transformacji to sposób, w jaki pracujemy: połączenie lean, czyli czegoś, co było w naszym DNA przez wiele lat, i agile, czyli zwinności, szybkiego dostosowania produktu i rozwiązań. Ten zestaw daje dobry fundament pod to, żeby nie tylko wykorzystywać AI, ale stworzyć bardzo nowoczesne przedsiębiorstwo, które jest efektywne.

A gdzie w tym wszystkim elementy, które mają wpływ na wasz biznes, jak legislacja, RODO, czy wreszcie kompetencje pracowników, bo wiadomo, że adaptacja AI to duża zmiana dla całej organizacji… O etyce nie wspominając.

Mamy bardzo dobrze zbudowany zestaw governance, jeżeli chodzi o sprawy RODO, compliance, a do ryzyk ostatnio dołączyliśmy te związane z AI i mamy już szkieletowe ramy zarządzania AI. Jeżeli chodzi o kontakt z naszymi klientami – osobami zadłużonymi, aspekt etyczny jest oczywiście kluczowy. Dlatego kładziemy duży nacisk na to, żeby nie dochodziło do nadużyć AI, czyli wykorzystywania potencjalnych słabości jednostki.

A co do pracowników – oczywiście, AI rodzi strach. Pracownicy np. w contact center, patrząc na technologię, która pędzi w niesamowitym tempie, często pewnie myślą, że dla nich nie będzie już miejsca. To jest bardzo silny trend w wielu organizacjach, z którym trzeba sobie poradzić. Można to zrobić przez edukację, dyskusję i pokazywanie, w jaki sposób AI zastąpi człowieka, ale tylko w niektórych aspektach i że dzięki niej człowiek będzie mógł się skoncentrować na czymś innym. Aby uświadomić sobie możliwe korzyści, warto spojrzeć na tzw. face value naszych aktywów. To dziś 140 mld zł, z których w najlepszych planach operacyjnych planujemy odzyskać około 30 mld zł. To znaczy, że jest bardzo dużo aktywów, które nie pracują. Jeżeli więc nasi pracownicy będą dobrze adaptować nowe narzędzia, to one – czytaj AI – będą obsługiwać prostsze, standardowe, sprawy, a człowiek będzie mógł zająć się nieco trudniejszymi tematami. To tylko zwiększy naszą efektywność.

Gdzie zatem i w jakich procesach wykorzystujecie dziś AI?

AI wspiera programistów i w systemach, które piszemy, poziom akceptacji podpowiedzi sztucznej inteligencji osiąga 25-30 proc., co przyspiesza pracę. To także automatyzacja przetwarzania milionów dokumentów – algorytmy są w stanie odczytać treść, zrozumieć, co to jest za dokument, skategoryzować go i przenieść informacje do bazy danych. Porównując błędy popełniane przez ludzi i algorytmy, mamy tu wynik 100 do 1 na korzyść AI. Kolejny element to obsługa klientów, gdzie wykorzystujemy rozwiązania botowe i czatbotowe, dzięki czemu możemy także obsługiwać sprawy, które dają mniejszą szansę powodzenia.

A jak wpisać AI w strategię firmy, która ma obowiązywać przez najbliższe np. 5 lat? 

My mamy horyzont 2030 r. i staramy się stworzyć „AI-driven workflow”, czyli narzędzie, a wręcz ekosystem, który pozwala nam zarządzać wszystkimi procesami z jak najmniejszą ingerencją ludzi. Oczywiście ona pozostanie na płaszczyźnie szkolenia modeli i monitorowania, czy robią to, co powinny. Ale AI nie może być celem samym w sobie. To jest tylko, albo aż, narzędzie, które ma jakiś konkretny cel. Staram się powtarzać pracownikom „nie będziecie konkurować z AI, będziecie konkurować z innym człowiekiem wykorzystującym AI i dlatego powinniście wykorzystywać AI”. Adaptacja modeli tylko po to, żeby szumnie powiedzieć „mam algorytmy AI i je wykorzystuję” nie ma większego sensu. Trzeba jasno zdefiniować, co dzięki nowym technologiom chcemy osiągnąć i jaki jest tego nadrzędny cel.

Do innowacji podchodzimy zresztą na zasadzie piaskownicy – jeżeli widzisz potencjał w zmianie, sprawdź to, a jeżeli widzisz, że ten potencjał się nie materializuje – szybko zamknij temat. Dodatkowo, jeżeli to będzie silna i dobrze zorganizowana oddolna inicjatywa i ludzie sami będą przychodzić z pewnymi pomysłami, to wtedy szansa na skuteczną adaptację nowych narzędzi jest dużo większa.