Maciej Tąkiel, Bartosz Kapuściński: O pierwszej próbie ustalenia definicji sztucznej inteligencji

AI może służyć przewidywaniu trendów, optymalizacji procesów, a także dostosowaniu świadczonych usług do indywidualnych potrzeb użytkownika.

Publikacja: 09.08.2022 08:54

Maciej Tąkiel, Bartosz Kapuściński: O pierwszej próbie ustalenia definicji sztucznej inteligencji

Foto: Adobe Stock

Sztuczna inteligencja jako pojęcie o niejednorodnej naturze, lecz o elementarnym charakterze jest obecnie przedmiotem prac legislacyjnych na poziomie unijnym. Opublikowana kolejna wersja projektu unijnego rozporządzenia stanowi pierwszą próbę stworzenia definicji legalnej sztucznej inteligencji. W jakim kierunku zmierza proces legislacyjny i czy rozporządzenie ma szansę ustanowić jej nowy standard?

Pierwszy projekt rozporządzenia

Komisja Europejska opublikowała 21 kwietnia 2021 r. projekt rozporządzenia ustanawiającego zharmonizowane przepisy o sztucznej inteligencji (AI, Artificial Intelligence, dalej: rozporządzenie AI). Podkreślono w nim tempo, w jakim rozwijają się systemy AI, a także korzyści natury społecznej oraz ekonomicznej – AI może służyć przewidywaniu trendów, optymalizacji procesów, a także personalizacji świadczonych usług. Ma się to przyczynić do uzyskania przewagi konkurencyjnej przez przedsiębiorców i Unię Europejską. Próbie zdefiniowana nieostrego pojęcia, jakim jest AI, towarzyszy chęć utrzymania wiodącej pozycji UE w technologii, i jej wykorzystania zgodnie z unijnymi zasadami oraz wartościami.

Czytaj więcej

Koryzma, Zdanowicz-Leśniak: Pożyteczna, ale też niebezpieczna

Celem szczegółowym projektu są systemy AI bezpieczne i zgodne z obowiązującym prawem, pewność inwestycji i innowacji AI, poprawa zarządzania i skuteczne egzekwowanie przepisów o prawach podstawowych i bezpieczeństwa AI, a także ułatwienie rozwoju jednolitego rynku.

Ambitne cele unijnego ustawodawcy niestety nie znalazły odzwierciedlenia w definicji AI. Pierwotnie system AI oznaczał oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I rozporządzenia AI, które mogłoby dla danego zestawu celów określonych przez człowieka generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.

Załącznik I rozporządzenia AI obejmuje m.in.: mechanizmy uczenia maszynowego, metody oparte na logice i wiedzy, a także podejścia statystyczne. Pierwotnie zaprezentowana definicja systemu AI była zdecydowanie zbyt szeroka. Wkraczała wprost w otoczenie regulacyjne zarezerwowane dotychczas dla programów komputerowych. Zasięg takiej regulacji nie byłby zatem ograniczony wyłącznie do systemów AI, a bezpośredni charakter rozporządzenia objąłby wszystkich producentów oprogramowania komputerowego i konsumentów ich usług.

Zdolność do nauki – dalsze zmiany

Kolejna wersja projektu została opublikowana 29 listopada 2021 r. i jest tzw. projektem kompromisowym zawierającym wiele zmian. Mają przybliżyć pojęcie systemu AI, akcentując, iż powinien być zdolny do osiągnięcia celu nakreślonego przez człowieka poprzez zdolność do uczenia się, rozumowania oraz modelowania. Wyłącza to także tradycyjne oprogramowanie komputerowe. Nowa propozycja definicji systemu AI, zawarta w art. 3 rozporządzenia AI, określa go zatem jako system, który:

(i) otrzymuje dane lub wkład pochodzące od maszyny lub człowieka;

(ii) wnioskuje, jak osiągnąć dany zestaw celów zdefiniowanych przez człowieka, wykorzystując zdolność do uczenia się, rozumowania lub modelowania przy użyciu technik z załącznika I rozporządzenia AI;

(iii) generuje dane wyjściowe w postaci treści (generative AI systems), przewidywań, zaleceń lub decyzji, które wpływają na otoczenie, z którym wchodzi w interakcję.

Katalog załącznika I rozporządzenia AI pozostaje bez zmian, z zastrzeżeniem, że KE ma aktualizować ten wykaz co 24 miesiące. Z jednej strony KE posiada instrument dostosowania załącznika I do postępu technologicznego i rozwoju rynkowego, a z drugiej wprowadza tym pewne ryzyko systemowe, na które szczególnie wrażliwi mogą być właśnie twórcy systemów AI.

Kolejną propozycję legislacyjną złożył 20 kwietnia 2022 r. Parlament Europejski. Względem pierwotnej wersji definicja systemu AI została pozbawiona elementu ludzkiego – cele nie muszą być określane przez człowieka.

Zakres stosowania

Zgodnie z pierwotną koncepcją KE rozporządzenie AI miałoby zastosowanie do:

(i) dostawców wprowadzających do obrotu lub oddających do użytku systemy AI w UE, niezależnie od tego, czy dostawcy ci mają siedzibę w UE czy też w państwie trzecim;

(ii) użytkowników systemów AI, którzy znajdują się w UE;

(iii) dostawców i użytkowników systemów AI, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w UE.

Zakres ten już na pierwszy rzut oka budzi wątpliwości, bo ogranicza obowiązywanie do dostawców. Przez pojęcie dostawcy rozumie się osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które opracowują system AI lub zlecają jego opracowanie w celu wprowadzenia go do obrotu lub oddania do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie. Parlament Europejski zaproponował więc objęcie nową regulacją nie dostawców, ale operatorów. Operator oznacza nie tylko dostawcę, ale też użytkownika, upoważnionego przedstawiciela, importera i dystrybutora. To pozytywna zmiana, bo zapewni kompleksowość regulacji i ułatwi egzekucję przepisów poprzez objęcie nimi wszystkich odpowiedzialnych za wprowadzenie systemu do użytkowania.

Równie pozytywnie należy ocenić próbę uregulowania systemów AI funkcjonujących poza UE. Pierwotny projekt wskazywał na wykorzystanie działania systemu w UE, co praktycznie pozwoliłby regulować systemy tworzone i funkcjonujące w innych krajach, ale służące do transgranicznego obsługiwania procesów w UE. Byłoby to rozwiązanie jak to stosowane już w RODO, pozwalające regulować administratorów spoza UE, jeśli przetwarzają dane osobowe osób z jej terytorium. Parlament Europejski również zaproponował, by rozporządzenie obowiązywało nie tylko kiedy wyniki działania są wykorzystywane w UE, ale i kiedy mają wpływ na osoby fizyczne w UE.

Rozszerzenie może wydawać się nieuzasadnione, ale jest to próba ochrony osób przebywających w UE przed działaniami, które mogą je dotknąć w krajach pozbawionych wysokich standardów regulacyjnych. Unia będzie wyznaczać standardy ochrony osób fizycznych przed niekorzystnymi skutkami działania systemów AI – można tu dostrzec podobieństwo do RODO, które, chociaż często krytykowane, stworzyło pewien standard ochrony praw i wolności podmiotów danych. Standard wykorzystywany jest przy tworzeniu kolejnych krajowych regulacji dotyczących ochrony danych na całym świecie i pozwala identyfikować kraje bez właściwej ochrony danych. Dzięki temu możemy podejmować świadome decyzje, gdzie przekazujemy dane osobowe oraz kto je przetwarza.

Rozwój AI niesie nieporównywalnie większe zagrożenia niż używanie danych osobowych, dlatego obok wyznaczenia standardów warto zapewnić daleko idącą ochronę także osobom, które z różnych względów nie mogą liczyć na ich zastosowanie w innych krajach. Zarówno obywatele państw członkowskich UE, jak i osoby np. czasowo lub trwale poszukujące ochrony na jej terenie powinni mieć zapewniony przynajmniej minimalny komfort, że działania podejmowane w innych krajach, a mające wpływ na ich życie będą także regulowane. Jedynym problemem jest kwestia praktycznej aplikacji tej regulacji. O ile np. poprzez prowadzenie działań kontrolnych i nakładanie kar organy nadzorcze będą w stanie wymóc zgodność działania z rozporządzeniem przez podmioty, które chcą w jakiś sposób korzystać z rynków państw UE, o tyle trudniej sobie wyobrazić, jak UE planuje wymóc zgodność np. na rządach innych krajów. Zwłaszcza gdyby dana osoba postanowiła udać się do danego kraju.

Warto także wspomnieć, że PE w celu usunięcia wszystkich wątpliwości zaproponował, aby rozporządzeniem objąć też instytucje, urzędy, organy i agencje UE, pod warunkiem że występują w charakterze dostawcy lub użytkownika systemu AI.

Praktyki zakazane

Z regulacyjnego punktu widzenia największą siłą rozporządzenia AI jest ustanowienie zakazów wprowadzania do obrotu czy wykorzystywania systemów AI, które związane są ze stosowaniem technik podprogowych, wykorzystują słabości określonych grup (np. wiek, niepełnosprawność lub zaburzenia psychiczne), służą ocenie lub klasyfikacji osób fizycznych na podstawie zachowania społecznego, cech osobistych lub osobowościowych, kiedy taka ocena prowadzi do krzywdzącego lub niekorzystnego traktowania i które dokonują zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, chyba że w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z celów (np. poszukiwanie zaginionych dzieci). Ten podstawowy zakres zakazów może być niewystarczający i biorąc pod uwagę dynamiczny rozwój AI oraz pojawiające się nowe wyzwania, warto rozważyć procedurę rozszerzania listy zakazów np. decyzją organu nadzorczego lub niezależnego sądu w postaci Trybunału Sprawiedliwości UE, w procedurze podobnej do np. rejestru klauzul niedozwolonych. Z tą różnicą, że lista zakazów była jedna na poziomie europejskim. W tym konkretnym wypadku wydaje się, że przyznanie tych kompetencji sądom krajowym mogłoby wprowadzić zamieszanie i rozbieżności utrudniające stosowanie rozporządzenia AI, zwłaszcza w przypadku systemów działających na terenie całej UE lub transgranicznie. Taki rejestr pozwoliłby szybciej reagować na nowe zagrożenia bez konieczności uruchamiania długotrwałej procedury legislacyjnej.

Dodatkowo lista zakazów zostałaby uniezależniona od bieżących potrzeb politycznych, dając osobom fizycznym realną ochronę przed działaniami rządów i instytucji UE. Ponadto PE zaproponował istotną poprawkę rozszerzającą listę zakazów o system AI do przeprowadzania indywidualnych ocen ryzyka osoby fizycznej w celu oceny ryzyka popełnienia przestępstwa lub do przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa na podstawie profilowania lub oceny cech osobowości i charakterystyki lub zachowania przestępnego w przeszłości. Uzasadniono to faktem, że prognozowanie przestępczości narusza godność ludzką i zasadę domniemania niewinności, a także wiąże się z ryzykiem dyskryminacji.

Wydaje się, że rozporządzenie AI ma szansę ustanowić nowy standard regulacyjny, ale będzie to niezwykle trudne. Ważna jest zdolność ustawodawcy UE do sprawnego przystosowania do zmieniających się okoliczności, zarówno natury zewnętrznej, jak i systemowej.

„Raport mniejszości”

Nawet jeśli na mocy rozporządzenia zostaną zakazane i wykluczone praktyki rodem z jednej z książek Philipa K. Dicka, to lista potencjalnych lektur z tego gatunku, a także idących za nimi nadużyć pozostaje w zasadzie nieograniczona. Tak samo jak możliwość ich uregulowania w jednym, bezpośrednio obowiązującym akcie Unii Europejskiej.

dr Maciej Tąkiel jest dyrektorem ds. Rozwoju Biznesu i Innowacji w Greenberg Traurig, a Bartosz Kapuściński jest tam radcą prawnym

Sztuczna inteligencja jako pojęcie o niejednorodnej naturze, lecz o elementarnym charakterze jest obecnie przedmiotem prac legislacyjnych na poziomie unijnym. Opublikowana kolejna wersja projektu unijnego rozporządzenia stanowi pierwszą próbę stworzenia definicji legalnej sztucznej inteligencji. W jakim kierunku zmierza proces legislacyjny i czy rozporządzenie ma szansę ustanowić jej nowy standard?

Pierwszy projekt rozporządzenia

Pozostało 97% artykułu
Rzecz o prawie
Łukasz Guza: Granice wolności słowa
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Rzecz o prawie
Jacek Dubois: Nic się nie stało
Rzecz o prawie
Mikołaj Małecki: Policjant zawinił, bandziora powiesili
Rzecz o prawie
Joanna Parafianowicz: Młodszy asystent, czyli kto?
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Rzecz o prawie
Jakub Sewerynik: Wybory polityczne i religijne