Równie pozytywnie należy ocenić próbę uregulowania systemów AI funkcjonujących poza UE. Pierwotny projekt wskazywał na wykorzystanie działania systemu w UE, co praktycznie pozwoliłby regulować systemy tworzone i funkcjonujące w innych krajach, ale służące do transgranicznego obsługiwania procesów w UE. Byłoby to rozwiązanie jak to stosowane już w RODO, pozwalające regulować administratorów spoza UE, jeśli przetwarzają dane osobowe osób z jej terytorium. Parlament Europejski również zaproponował, by rozporządzenie obowiązywało nie tylko kiedy wyniki działania są wykorzystywane w UE, ale i kiedy mają wpływ na osoby fizyczne w UE.
Rozszerzenie może wydawać się nieuzasadnione, ale jest to próba ochrony osób przebywających w UE przed działaniami, które mogą je dotknąć w krajach pozbawionych wysokich standardów regulacyjnych. Unia będzie wyznaczać standardy ochrony osób fizycznych przed niekorzystnymi skutkami działania systemów AI – można tu dostrzec podobieństwo do RODO, które, chociaż często krytykowane, stworzyło pewien standard ochrony praw i wolności podmiotów danych. Standard wykorzystywany jest przy tworzeniu kolejnych krajowych regulacji dotyczących ochrony danych na całym świecie i pozwala identyfikować kraje bez właściwej ochrony danych. Dzięki temu możemy podejmować świadome decyzje, gdzie przekazujemy dane osobowe oraz kto je przetwarza.
Rozwój AI niesie nieporównywalnie większe zagrożenia niż używanie danych osobowych, dlatego obok wyznaczenia standardów warto zapewnić daleko idącą ochronę także osobom, które z różnych względów nie mogą liczyć na ich zastosowanie w innych krajach. Zarówno obywatele państw członkowskich UE, jak i osoby np. czasowo lub trwale poszukujące ochrony na jej terenie powinni mieć zapewniony przynajmniej minimalny komfort, że działania podejmowane w innych krajach, a mające wpływ na ich życie będą także regulowane. Jedynym problemem jest kwestia praktycznej aplikacji tej regulacji. O ile np. poprzez prowadzenie działań kontrolnych i nakładanie kar organy nadzorcze będą w stanie wymóc zgodność działania z rozporządzeniem przez podmioty, które chcą w jakiś sposób korzystać z rynków państw UE, o tyle trudniej sobie wyobrazić, jak UE planuje wymóc zgodność np. na rządach innych krajów. Zwłaszcza gdyby dana osoba postanowiła udać się do danego kraju.
Warto także wspomnieć, że PE w celu usunięcia wszystkich wątpliwości zaproponował, aby rozporządzeniem objąć też instytucje, urzędy, organy i agencje UE, pod warunkiem że występują w charakterze dostawcy lub użytkownika systemu AI.
Praktyki zakazane
Z regulacyjnego punktu widzenia największą siłą rozporządzenia AI jest ustanowienie zakazów wprowadzania do obrotu czy wykorzystywania systemów AI, które związane są ze stosowaniem technik podprogowych, wykorzystują słabości określonych grup (np. wiek, niepełnosprawność lub zaburzenia psychiczne), służą ocenie lub klasyfikacji osób fizycznych na podstawie zachowania społecznego, cech osobistych lub osobowościowych, kiedy taka ocena prowadzi do krzywdzącego lub niekorzystnego traktowania i które dokonują zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, chyba że w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z celów (np. poszukiwanie zaginionych dzieci). Ten podstawowy zakres zakazów może być niewystarczający i biorąc pod uwagę dynamiczny rozwój AI oraz pojawiające się nowe wyzwania, warto rozważyć procedurę rozszerzania listy zakazów np. decyzją organu nadzorczego lub niezależnego sądu w postaci Trybunału Sprawiedliwości UE, w procedurze podobnej do np. rejestru klauzul niedozwolonych. Z tą różnicą, że lista zakazów była jedna na poziomie europejskim. W tym konkretnym wypadku wydaje się, że przyznanie tych kompetencji sądom krajowym mogłoby wprowadzić zamieszanie i rozbieżności utrudniające stosowanie rozporządzenia AI, zwłaszcza w przypadku systemów działających na terenie całej UE lub transgranicznie. Taki rejestr pozwoliłby szybciej reagować na nowe zagrożenia bez konieczności uruchamiania długotrwałej procedury legislacyjnej.