Niepewność prawa i obawa o dane, to główne bariery dla rozwoju AI w Polsce

Polskie firmy bardziej niż inne w regionie boją się o bezpieczeństwo danych i skutki prawne rozwoju generatywnej sztucznej inteligencji. Ale i widzą w tej technologii szansę na rozwój i zdobycie przewagi nad konkurencją - wynika z raportu Deloitte.

Publikacja: 01.04.2024 11:54

Niepewność prawa i obawa o dane, to główne bariery dla rozwoju AI w Polsce

Foto: AdobeStock

Na potrzeby badania firma zadała szereg pytań 500 dyrektorom finansowym z 15 krajów naszego regionu. Dotyczyły one kluczowych korzyści i wyzwań związanych z rozwojem AI w ich organizacjach. Wśród 84 respondentów z Polski, wyraźnie widoczna jest większa świadomość wagi sztucznej inteligencji w strategii biznesowej – jako bardzo ważną wskazało ją 6 proc., jako ważną – 33 proc. – podczas gdy średnia dla wszystkich krajów wynosiła odpowiednio 5 proc. i 16 proc. Analogicznie – za nieważną uznaje ją tylko 17 proc. polskich respondentów, za mało ważną – 18 proc. Średnia odpowiedzi w regionie wynosi zaś 27 proc. i 26 proc.

Jednak jeśli chodzi o wdrażanie AI w organizacjach, Polska pozostaje nieco poniżej średniej – niemal co czwarta firma eksperymentuje z tą technologią, a 8 proc. rozpoczęło implementowanie jej do swoich strategii. Liderami są Czechy i Słowacja, gdzie suma tych wyników wynosi 42 proc. (w Polsce jedynie 32 proc.). W krajach bałtyckich odsetek ten sięga 40 proc. a średnio w regionie – 36 proc.

Czytaj więcej

Oto jak sztuczna inteligencja może wesprzeć sądy i prokuratury w Polsce

Korzyści z AI: rozwój skali działalności i „zdezorientowanie konkurencji”

Trzy najważniejsze korzyści z wykorzystywania AI polscy dyrektorzy finansowi identyfikują podobnie jak ci z pozostałych krajów objętych badaniem. Są to kolejno – redukcja kosztów (przy czym Polacy wskazywali tę odpowiedź nieco częściej niż inni) poprawa dokładności modeli i prognoz (tu ustępujemy tylko Bałtom) oraz rozwój nowych usług i produktów.

Co ciekawe jednak, na czwartym miejscu polscy respondenci wskazali „zwiększenie skali biznesu” (36 proc. przy średnim wyniku w regionie 22 proc.) podczas gdy średnia czwartym wynikiem była „poprawa obsługi klienta”. W tym ostatnim przypadku ilość polskich wskazań była dwukrotnie niższa od średniej (17 proc. w stosunku do 34 proc.) Znacząco częściej zaś jako korzyść z rozwoju AI Polacy wskazywali zdezorientowanie konkurentów (disrupt competitors) – aż 21 proc. w porównaniu ze średnią 6 proc.

-Polskie firmy, które od wielu lat funkcjonują w silnie konkurencyjnym otoczeniu zarówno w kraju, jak i za granicą postrzegają sztuczną inteligencję jako narzędzie, które pomoże im w budowaniu przewag rynkowych. Dzięki generatywnej sztucznej inteligencji chcą poszerzać swoją działalność poprzez skuteczniejszy dostęp do informacji, pokonywanie bariery językowej oraz skuteczniej dostosowywać się do potrzeb i oczekiwań konsumentów — mówi dr hab. Eliza Przeździecka, starsza ekonomistka w zespole ds. analiz ekonomicznych Deloitte.

Największe ryzyka — kwestie prawne i ochrona danych osobowych

Natomiast wśród najważniejszych wyzwań związanych z wdrażaniem AI na pierwszych dwóch miejscach wskazano brak pracowników z odpowiednimi talentami i umiejętnościami (średnio 59 proc., w Polsce – ponad 70 proc.) oraz zasoby technologiczne i jakość danych (średnio 51 proc. wśród polskich respondentów – niemal 60 proc.) Na trzecim miejscu w regionie znalazł się koszt inwestycji (prawie połowa respondentów). Tymczasem polscy dyrektorzy częściej wskazywali kwestie bezpieczeństwa i ochrony danych (57 proc. przy średniej 43 proc.). Podobnie na miejscu piątym w Polsce (po kosztach inwestycji) znalazły się potencjalne skutki prawne implementacji AI (24 proc. w regionie 14 proc.) a nie zarządzanie ryzykiem, jak ogólnie w regionie (26 proc. w Polsce ok. 10 proc.)

Prof. Grzegorz Sibiga, adwokat i partner w kancelarii Traple, Konarski Podrecki i Wspólnicy wskazuje, że na taki wynik składają się dwie kwestie:  potwierdzona badaniami duża świadomość społeczna w Polsce (względem wielu innych państw europejskich) praw i obowiązków w zakresie ochrony danych osobowych, a po drugie rzeczywiste problemy na styku sztucznej inteligencji oraz ochrony danych osobowych, zarówno gdy chodzi o dane wejściowe do systemów AI inteligencji jak i dane wynikowe z nich uzyskane.

-Nieufność w zakresie konsekwencji działania prawa jest do pewnego stopnia uzasadniona, ponieważ oprócz aktu w sprawie sztucznej inteligencji będziemy równolegle stosowani całą gamę przepisów zarówno unijnych jak i krajowych. - tłumaczy ekspert — Przykładowo dotyczą one wykorzystywania danych w systemach AI, używania jej do profilowania, a nawet automatycznego podejmowania decyzji. W sumie tworzą one całą mozaikę przepisów, które dla zwykłego obywatela, czy przedsiębiorcy mogą być nie do końca zrozumiała. Samo rozporządzenie w sprawie sztucznej inteligencji będzie aktem trudnym do wykonania, a fragmentami jest ono niejasne. - dodaje.

Czytaj więcej

Koncerny blokują sztuczną inteligencję. Powodem prawo autorskie

Bardziej boimy się ryzyk prawnych niż technologicznych

-Polscy respondenci mogą częściej wskazywać bezpieczeństwo i ochronę danych jako wyzwanie, ze względu na wzrost świadomości dotyczącej ochrony danych, regulacji prawnych oraz konsekwencji związanych z naruszeniami bezpieczeństwa cyfrowego. - wskazuje z kolei Mateusz Ordyk, radca prawny, partner w Deloitte Legal — Wydają się przywiązywać dużą wagę, także w kontekście generatywnej AI, do kwestii bezpieczeństwa i ochrony danych, dostrzegając zagrożenia wpływające zarówno na zapewnienie ciągłości działania, jak i na ryzyka związane z ujawnieniem danych stanowiących tajemnicę przedsiębiorcy, danych kontrahentów i konsumentów. Kładą nacisk na zarządzanie powyższymi ryzykami, borykając się także ze złożonością polskich regulacji prawnych w tym zakresie, natomiast wydają się nie traktować AI jako technologii samej w sobie wysoce ryzykownej czy trudnej do zarządzania.  - podsumowuje.

I dodaje że doświadczenia ostatnich kilku lat powodują, że przedsiębiorcy mają raczej ostrożne oczekiwania co do legislacji w Polsce. Wynika to z zarówno z niejasności i nieprzewidywalności wprowadzanych przepisów, jaki i istotnie ograniczonych konsultacji społecznych.

-Respondenci mogą obawiać się, że implementacja ogólnoeuropejskich regulacji dotyczących sztucznej inteligencji (AI Act) będzie opóźniona, niespójna lub nieprecyzyjna. - tłumaczy Mateusz Ordyk -Tego rodzaju obawy wynikają często z doświadczeń z poprzednimi procesami legislacyjnymi, które mogły być skomplikowane i czasochłonne. W związku z tym odbierają regulacje prawne jako obszary generujące raczej wyzwania dla biznesu i postrzegają je przez pryzmat obciążeń, a nie szans. - podkreśla.

Opinia dla "Rzeczpospolitej"
Eliza Turkiewicz specjalistka w Departamencie Rynku Cyfrowego Konfederacji Lewiatan

Pomimo tego, że z AI Act wynika, iż RODO stosuje się niezależnie od niego, to niejasne jest, jakie będą tego praktyczne konsekwencje. Na pograniczu tych regulacji pojawia się wiele niepewności dla dostawców i użytkowników systemów AI, takich jak brak klarownej podstawy prawnej dla przetwarzania danych osobowych w celu treningu modeli AI i ich późniejszego wykorzystania. Skupienie się jedynie na wdrażaniu AI Act kosztem niewystarczającej uwagi dla kwestii ochrony danych może mieć negatywny wpływ na rozwój sztucznej inteligencji w Unii Europejskiej. Ze względu na niepewność prawną firmy mogą unikać projektów AI, które wymagają przetwarzania danych osobowych, lub też ryzykować wysokie kary za ich wdrożenie, co może mieć efekt mrożący. Panaceum na tą niepewność może stanowić kontynuacja dialogu administracji z biznesem, zrozumienie przez obie strony swoich pespektyw oraz przemyślany, transparentny proces wdrożenia AI Act do porządku krajowego, oparty na szeroko prowadzonych konsultacjach, w których powinni brać aktywny udział przedstawiciele jak największej liczby branż i sektorów.

Na potrzeby badania firma zadała szereg pytań 500 dyrektorom finansowym z 15 krajów naszego regionu. Dotyczyły one kluczowych korzyści i wyzwań związanych z rozwojem AI w ich organizacjach. Wśród 84 respondentów z Polski, wyraźnie widoczna jest większa świadomość wagi sztucznej inteligencji w strategii biznesowej – jako bardzo ważną wskazało ją 6 proc., jako ważną – 33 proc. – podczas gdy średnia dla wszystkich krajów wynosiła odpowiednio 5 proc. i 16 proc. Analogicznie – za nieważną uznaje ją tylko 17 proc. polskich respondentów, za mało ważną – 18 proc. Średnia odpowiedzi w regionie wynosi zaś 27 proc. i 26 proc.

Pozostało 92% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Podatki
Nierealna darowizna nie uwolni od drakońskiego podatku. Jest wyrok NSA
Samorząd
Lekcje religii po nowemu. Projekt MEiN pozwoli zaoszczędzić na katechetach
Prawnicy
Bodnar: polecenie w sprawie 144 prokuratorów nie zostało wykonane
Cudzoziemcy
Rząd wprowadza nowe obowiązki dla uchodźców z Ukrainy
Konsumenci
Jest pierwszy wyrok ws. frankowiczów po głośnej uchwale Sądu Najwyższego
Materiał Promocyjny
Dzięki akcesji PKB Polski się podwoił