Bruksela bije w bota paragrafem. Co teraz czeka AI w Europie?

Unormowanie kwestii związanych ze sztuczną inteligencją na Starym Kontynencie z jednej strony tworzy ramy prawne dla dynamicznego, acz kontrolowanego rozwoju tej technologii, zaś z drugiej – stwarza ryzyko jego wyhamowania.

Aktualizacja: 26.12.2023 09:01 Publikacja: 26.12.2023 09:00

UE grozi spadek konkurencyjności i innowacyjności – ostrzega część ekspertów analizujących wspólnoto

UE grozi spadek konkurencyjności i innowacyjności – ostrzega część ekspertów analizujących wspólnotowy projekt regulacji dla AI

Foto: Shutterstock

Rok 2024 w Unii Europejskiej z pewnością będzie stał – jak i w innych regionach świata – pod hasłem ekspansji systemów AI. Sztuczna inteligencja rewolucjonizuje kolejne branże oraz sfery naszego życia i tego już raczej nic nie zatrzyma.

Pytanie jednak, na ile powinien być to proces swobodny, a gdzie i kiedy powinien pojawić się nadzór. Globalny wyścig o prymat w rozwoju różnego rodzaju botów nabiera coraz większego tempa, co grozi utratą kontroli człowieka. UE, jako pierwsza na świecie, może zdołać zamknąć te palące kwestie w ramy prawne.

Czytaj więcej

Sztuczna inteligencja zbadała, czy to obraz Rafaela. Zaskakujące odkrycie

Prawa człowieka ponad wszystko

W grudniu w Brukseli udało się wypracować porozumienie polityczne dotyczące aktu ws. sztucznej inteligencji (AI Act). Wydaje się, że przyjęcie końcowych regulacji jest bliżej niż kiedykolwiek wcześniej. Według przewodniczącej Komisji Europejskiej to historyczny moment. – Sztuczna inteligencja już teraz wpływa na nasze codzienne życie. A to dopiero początek. Stosowana mądrze i powszechnie AI może zapewnić ogromne korzyści dla naszej gospodarki i naszego społeczeństwa – mówi Ursula von der Leyen. I zaznacza, że unijny akt stanowi pierwsze w historii kompleksowe ramy prawne dla tej technologii.

Jej zdaniem AI Act „transponuje europejskie wartości do nowej epoki”, a przyczyni się do „odpowiedzialnej innowacyjności” w Europie. – Gwarantując bezpieczeństwo i poszanowanie praw podstawowych obywateli i przedsiębiorstw, porozumienie wesprze rozwój, wdrażanie i wykorzystanie godnej zaufania sztucznej inteligencji w UE. Akt ten wniesie istotny wkład w rozwój światowych przepisów i zasad dotyczących AI ukierunkowanej na człowieka – przekonuje szefowa KE.

Nowe przepisy, które mają być stosowane bezpośrednio w ten sam sposób we wszystkich państwach członkowskich, bazują na podejściu opartym na analizie ryzyka. I tak – rozróżniono kilka jego kategorii. Pierwsza to minimalne ryzyko, do której zaklasyfikowano zdecydowaną większość systemów AI (np. systemy rekomendacji czy filtry antyspamowe): te będą zwolnione z wymagań i zobowiązań prawnych, ponieważ nie wiąże się z nimi zagrożenie dla praw lub bezpieczeństwa obywateli.

Czytaj więcej

Fascynujące odkrycie. Sztuczna inteligencja potrafi uczyć się jak ludzki mózg

Druga kategoria to ryzyko wysokie. A tu chodzi już o zaawansowane algorytmy, które mają związek z infrastrukturą krytyczną (m.in. w obszarach wody, gazu i energii), kontrolą graniczną, wyrobami medycznymi, a także ze sprawowaniem wymiaru sprawiedliwości czy z systemami podejmowania decyzji w procesach rekrutacyjnych (ważną decyzją Brukseli jest ponadto uznanie za systemy wysokiego ryzyka wszelkich technologii identyfikacji biometrycznej czy rozpoznawania emocji). Takie technologie będą musiały spełniać rygorystyczne wymogi, choćby w zakresie systemów ograniczania ryzyka, zbiorów danych wysokiej jakości, ewidencjonowania działania, jak również szczegółowej dokumentacji czy – co istotne – sprawowania nadzoru przez człowieka. Dochodzą też dodatkowe wymagania dotyczące wysokiego poziomu solidności, dokładności takich rozwiązań oraz odpowiednich cyberzabezpieczeń. Pomocne w rozwijaniu takich systemów AI w Europie mają być tzw. piaskownice regulacyjne.

Trzecią kategorią wyróżnioną w UE jest tzw. niedopuszczalne ryzyko. W tym wypadku chodzi o AI, która może stanowić fundamentalne zagrożenie dla praw obywateli. Takie algorytmy będą zakazane. Przykład? Aplikacje wykorzystujące sztuczną inteligencję do manipulowania zachowaniem ludzi w celu obejścia wolnej woli użytkowników, zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań, systemy prognozowania przestępczości czy także obecne już np. w Chinach systemy „klasyfikacji punktowej osób” oraz czujniki emocji w miejscach pracy.

Krok w dobrym kierunku, ale…

W KE podkreślają, iż podczas korzystania z botów użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną. W efekcie tzw. deepfake i inne treści generowane przez sztuczną inteligencję będą musiały zostać oznakowane. Wygenerowane w taki sposób treści (audio, wideo, tekst i obrazy) mają być w prosty sposób możliwe do zidentyfikowania jako sztucznie generowane.

Jednak AI Act nie będzie odnosił się jedynie do produktów i usług bazujących na tzw. modelach podstawowych, ale również danych tych modeli. „Potężne modele, mogące stwarzać ryzyko systemowe, będą podlegały dodatkowym zobowiązaniom w zakresie zarządzania ryzykiem, monitorowania poważnych incydentów oraz oceny modelu”.

Czytaj więcej

Innowacje z Polski. Ochrona zdrowia w nowoczesnej odsłonie

Istotny jest fakt, że Bruksela utworzy Europejski Urząd ds. Sztucznej Inteligencji (w ramach KE), który będzie m.in. nadzorował wdrażanie i egzekwowanie nowych przepisów dotyczących modeli AI ogólnego przeznaczenia. Z kolei specjalny panel naukowy, złożony z niezależnych ekspertów, ma wydawać ostrzeżenia dotyczące tzw. ryzyka systemowego.

Aby jednak wszystkie te przepisy weszły w życie, porozumienie polityczne musi zostać przekute w oficjalną zgodę Parlamentu Europejskiego i Rady. Kiedy to nastąpi? Na razie nie wiadomo, ale można się spodziewać, że już w nowym roku. AI Act zacznie w takiej sytuacji obowiązywać dwa lata później (nastąpi to więc zapewne w 2026 r.), nie licząc pewnych regulacji, które wejdą w życie po pół roku lub 12 miesiącach.

Eksperci już dziś są jednak podzieleni co do przyszłych przepisów. Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa w WithSecure, twierdzi, że AI Act to krok w dobrym kierunku, bo wyraźne wskazanie kategorii zastosowań i obszarów, w których sztuczna inteligencja nie może być używana, nałoży na spółki techniczne ramy prawne, do których będą musiały się stosować.

– To podejście pomoże powstrzymywać rozwijanie AI w obszarach, które mogą być szkodliwe i kuszą możliwością uzyskania dużego i szybkiego przychodu. W czasach, gdy firmy nieustannie szukają nowych źródeł zysku, naiwne byłoby oczekiwanie, że same ograniczą się w sytuacji, gdy konkurencja na rynku jest coraz bardziej zacięta – tłumaczy.

… nie ma innowacji bez ryzyka

Jednocześnie uważa on, że AI Act stworzy obszary ryzyka, gdyż te normy będą obowiązywać jedynie na terenie UE, a więc firmy, które operują poza obszarem Wspólnoty, nie zostaną objęte ograniczeniami. W konsekwencji może dojść do sytuacji, w której globalni gracze będą wypuszczali specjalną wersję swojego rozwiązania lub usługi na rynek europejski oraz „pełną” wersję na inne rynki. To grozi rozwijaniem się opartej na AI gospodarki dwóch prędkości.

– AI Act może zatem znacznie zwiększyć koszty tworzenia i wprowadzania na rynek innowacyjnych produktów zwłaszcza z perspektywy małych firm – ostrzega Tasiemski.

Rafał Pisz, prezes firmy Quantup, uważa wręcz, że projekt unijnych przepisów jest pełen paradoksów. Jak wskazuje, wdrażanie AI np. w sektorze finansowym jest już dziś zgodne z rygorystycznymi zaleceniami lokalnych regulatorów, jak m.in. Komisja Nadzoru Finansowego. – Ubezpieczenia i bankowość należą do sektorów, które są uważane za sektory wysokiego ryzyka, jeśli chodzi o wdrażanie sztucznej inteligencji. Każdy, kto pracuje w tych branżach, to wie. Pytanie więc, czy potrzebujemy nowego dokumentu – zastanawia się Pisz.

Według niego AI Act jest wewnętrznie sprzeczny, a ponadto dominują w nim zakazy, obowiązki i sankcje. – Trudno znaleźć cokolwiek na temat zachęt i prawdziwego wsparcia – wyjaśnia prezes Quantup. – Do zwiększenia konkurencyjności małych i średnich przedsiębiorstw dzięki AI nie potrzeba tzw. piaskownic regulacyjnych oraz środowisk testowych, tworzonych przez organy krajowe w celu opracowywania i szkolenia sztucznej inteligencji przed jej wprowadzeniem na rynek. W tym przypadku AI Act jest bezwartościowy – ocenia ekspert.

Jego zdaniem sztuczna inteligencja to innowacja, a nie da się wprowadzać innowacji bez ryzyka. – Jeśli chcesz wprowadzać innowacje, potrzebujesz ku temu okazji, a nie nowego zestawu zasad. Niestety, ustawa o sztucznej inteligencji tego nie przewiduje – kontynuuje.

Wiele wątpliwości ma też Związek Cyfrowa Polska. W niedawnym oświadczeniu zaalarmował, iż projektowane regulacje, wprowadzając rygorystyczne ograniczenia zakazujące lub ograniczające niektóre zastosowania sztucznej inteligencji, mogą obniżyć konkurencyjność unijnego rynku i spowolnić innowacje.

Rok 2024 w Unii Europejskiej z pewnością będzie stał – jak i w innych regionach świata – pod hasłem ekspansji systemów AI. Sztuczna inteligencja rewolucjonizuje kolejne branże oraz sfery naszego życia i tego już raczej nic nie zatrzyma.

Pytanie jednak, na ile powinien być to proces swobodny, a gdzie i kiedy powinien pojawić się nadzór. Globalny wyścig o prymat w rozwoju różnego rodzaju botów nabiera coraz większego tempa, co grozi utratą kontroli człowieka. UE, jako pierwsza na świecie, może zdołać zamknąć te palące kwestie w ramy prawne.

Pozostało 93% artykułu
Biznes
Stare telefony działają cuda! Dołącz do akcji T-Mobile i Szlachetnej Paczki
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Biznes
Podcast „Twój Biznes”: Polski rynek akcji – optymistyczne prognozy na 2025 rok
Biznes
Eksport polskiego uzbrojenia ma być prostszy
Biznes
Jak skutecznie chronić rynek Unii Europejskiej
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Biznes
„Rzeczpospolita” o perspektywach dla Polski i świata w 2025 roku