Firmy nie mają planu na AI. Kto weźmie odpowiedzialność za algorytmy

Co dziesiąte przedsiębiorstwo nie ma planu dostosowania swojej AI do przepisów. A stawką są ochrona danych, na których jest trenowana, oraz bezpieczeństwo użytkowników.

Publikacja: 05.04.2024 04:30

Firmy nie mają planu na AI. Kto weźmie odpowiedzialność za algorytmy

Foto: Adobe Stock

Rodzime firmy coraz śmielej idą ścieżką innowacji, stawiając na systemy sztucznej inteligencji jako narzędzia optymalizujące biznes i umacniające ich konkurencyjność. Możliwości tej technologii w kontekście strategicznych decyzji dostrzega już 42 proc. polskich menedżerów – wynika z najnowszych badań SAS. Kłopot stanowią jednak liczne wyzwania. Choć dominują te związane z obawami pracowników (40 proc.) i brakami kompetencyjnymi w firmach (34 proc.), to lekceważone nie mogą być też bariery natury regulacyjnej. Już co trzeci badany zdaje sobie sprawę, że niepewna sytuacja prawna w kontekście AI to problem.

Zminimalizować stronniczość

Świadomość to jedno, ale czy przedsiębiorcy są gotowi reagować na wyzwania regulacyjne? Najnowsze dane SAS wskazują, że co dziesiąta firma nie ma żadnego planu w zakresie dostosowania swoich technologii AI do przepisów. Chodzi m.in. zarówno o rozporządzenia o ochronie danych osobowych (RODO), jak i unijny AI Act. Powód? Analitycy twierdzą, iż w 44 proc. przypadków to brak zrozumienia zapowiadanych rozwiązań prawnych.

Czytaj więcej

Wielki protest gwiazd muzyki przeciw sztucznej inteligencji. „Może ich zastąpić"

Na poziomie Unii Europejskiej sztuczną inteligencję w ramy prawne wziął AI Act, przyjęty w marcu przez Parlament Europejski. Prace legislacyjne nad jego osadzeniem na polskim gruncie dopiero ruszają. W ramach pierwszego etapu konsultacji Ministerstwo Cyfryzacji (MC) zapyta m.in., czy powinien powstać nowy, przeznaczony temu obszarowi organ nadzoru rynku. „Następne kroki obejmą przedstawienie założeń implementacji Aktu oraz, w późniejszym czasie, projektu aktu prawnego wdrażającego unijne rozporządzenie” – podał resort w komunikacie.

Zaznaczył przy tym, że to pierwsze tego typu na świecie prawo, które w sposób całościowy ma uregulować sektor AI. Jak tłumaczą w MC, regulacja bazuje na podejściu opartym na ryzyku, „uzależniając obowiązki dostawców i podmiotów wdrażających modele i systemy AI od potencjalnego ryzyka wyrządzenia szkód obywatelom, społeczeństwom i gospodarkom”.

Biznes powinien z uwagą obserwować więc ten proces. Niestety podejście firm stosujących systemy AI nie napawa optymizmem. Eksperci SAS podkreślają, że ankietowani przedsiębiorcy wykazują się dużą dozą pewności w zakresie zgodności swoich rozwiązań z nowymi lub zapowiadanymi przepisami. Prawie połowa respondentów wyraziła daleko idące przekonanie, że ich oprogramowanie wykorzystujące AI spełni wymogi prawa, a kolejne 36 proc. była o tym przekonana „do pewnego stopnia”. Dzieje się tak, gdyż firmy w dużej mierze oczekują, że zadba o to zewnętrzny dostawca technologii.

- Sztuczna inteligencja jest prawdopodobnie najpotężniejszą i najbardziej transformacyjną technologią, jaką widzieliśmy w tym pokoleniu, dlatego firmy i instytucje bardziej niż kiedykolwiek muszą zachować należytą staranność przy wyborze dostawcy. Potrzebują zaufanego partnera, który może doradzić w zakresie przyjęcia najlepszych praktyk w całej organizacji – twierdzi Iain Brown, dyrektor działu Data Science w SAS.

Jego zdaniem ważne jest, aby „wspierać odpowiedzialność w firmie”. – Szkolenie personelu i świadomość dotycząca wykorzystania danych muszą mieć mocne oparcie w zasadach zarządzania nimi, w tym w ich jakości i pochodzeniu. Kluczowe jest również ustanowienie solidnego zarządzania modelami, aby zapewnić, że wyniki minimalizują potencjalną stronniczość – kontynuuje.

Czytaj więcej

Polska sztuczna inteligencja ma wesprzeć kulejącą amerykańską edukację

Zadbać o zbiory danych

Według ekspertów podstawową kwestią jest ochrona danych, na których AI jest trenowana, oraz bezpieczeństwo użytkujących zaawansowane algorytmy.

Paweł Paczuski, prezes spółki Upmedic, podkreśla, by pamiętać, że sztuczna inteligencja jest jedynie narzędziem, środkiem do osiągania jakiegoś celu i przekonuje, że potrzeba stworzenia dla niej ram, które zapewnią z jednej strony dalszy rozwój, z drugiej zaś właśnie bezpieczeństwo.

– Już na poziomie danych, na których jest trenowana, podlega regulacjom, jak np. RODO czy uchwalonego niedawno AI Act – przypomina. I dodaje, iż w przypadku medycyny – dziedziny bardzo dynamicznie się rozwijającej, ulegającej ciągłym zmianom ze względu na wnioski, jakie dają badania naukowe – sztuczna inteligencja wymaga zbiorów danych stworzonych ze szczególną uwagą.

– Aby kadra medyczna mogła takie rozwiązania stosować w codziennej pracy, rozwiązania poddawane są walidacji w zakresie jakości generowanych wniosków od strony klinicznej, szybkości ich generowania, dopasowania pod szczególne potrzeby pacjentów – tłumaczy Paczuski. – Wydatnie wydłuża to czas potrzebny na wdrożenie innowacji, ale jednocześnie daje bufor bezpieczeństwa, że rozwiązania spełniają ściśle określone wymagania i z ich realizacji można rozliczać twórców – komentuje prezes MedTechu.

Mimo licznych wyzwań polscy przedsiębiorcy są bardzo otwarci na wdrażanie zaawansowanych algorytmów w swoim biznesie. Badania EY Polska oraz Cube Research pokazują, iż proces włączania rozwiązań opartych na sztucznej inteligencji zakończyło już co piąte rodzime średnie lub duże przedsiębiorstwo operujące w branży produkcyjnej, usługowej bądź handlowej, a kolejne 42 proc. jest w trakcie takiego procesu.

IDC wylicza, że w ub.r. na rozwiązania generatywnej AI wydano globalnie 19 mld dol. Wedle prognoz za trzy lata ma to być już 150 mld dol.

Rodzime firmy coraz śmielej idą ścieżką innowacji, stawiając na systemy sztucznej inteligencji jako narzędzia optymalizujące biznes i umacniające ich konkurencyjność. Możliwości tej technologii w kontekście strategicznych decyzji dostrzega już 42 proc. polskich menedżerów – wynika z najnowszych badań SAS. Kłopot stanowią jednak liczne wyzwania. Choć dominują te związane z obawami pracowników (40 proc.) i brakami kompetencyjnymi w firmach (34 proc.), to lekceważone nie mogą być też bariery natury regulacyjnej. Już co trzeci badany zdaje sobie sprawę, że niepewna sytuacja prawna w kontekście AI to problem.

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Poczta Polska. Czy związki zawodowe dobiją spółkę?
Biznes
Branża recyklingowa widzi światełko w tunelu
Biznes
Taryfy uderzą w wyceny spółek energetycznych?
Biznes
Rolnicy oczekują zmian
Materiał Promocyjny
Technologia na etacie
Biznes
Rosyjska „stolica spa” powstanie za polską granicą
Materiał Promocyjny
Jak sztuczna inteligencja może być wykorzystywana przez przestępców cybernetycznych?