Mher Hakobyan: Zakazać masowej inwigilacji

Mher Hakobyan, doradca ds. prawa sztucznej inteligencji, Amnesty International.

Publikacja: 14.06.2023 08:55

Mher Hakobyan: Zakazać masowej inwigilacji

Foto: Adobe Stock

Europejska Partia Ludowa zgłosiła poprawki do aktu o sztucznej inteligencji, który będzie dziś głosowany w Parlamencie Europejskim. Chce, żeby było możliwe rozpoznawanie biometryczne w czasie rzeczywistym, ale tylko w określonych sytuacjach: szukania sprawców poważnych przestępstw, terrorystów i zaginionych dzieci. I zapewnia, że w system można wbudować bezpieczniki, które zapobiegną jego wykorzystywaniu do innych celów. Da się to zrobić?

Nie da się. Z technicznego punktu widzenia jest to niemożliwe. To jest system masowej inwigilacji i jedynym sposobem na to, żeby nie łamał on praw człowieka jest jego zakazanie. Ten instrument łamie wiele praw podstawowych: do prywatności, do ochrony danych osobowych, wolność słowa, zgromadzeń, prawo do niedyskryminacji. Do tego jest to system zawodny i dyskryminujący  ludzi o innym kolorze skóry niż biały. Mamy już przykłady ze Stanów Zjednoczonych, gdzie system błędnie wytypował przestępcę i oskarżono o kradzież czarnego człowieka, który w tym czasie przebywał w innym stanie. Tygodniami trwało dowiedzenie jego niewinności. I mówimy tu o sytuacji obywatela USA, który ma dostęp do adwokata. A co z migrantami, bo przecież wiadomo, że on jest wykorzystywany na granicach? Oni nawet nie wiedzą, że są poddawani tej procedurze, nie mają dostępu do prawników. Mamy tu w ogóle do czynienia z wielką dysproporcją. Po jednej stronie cały aparat państwa, po drugiej obywatel, który nie wie, jak się bronić przed inwigilacją. Zresztą nawet samo podejrzenia zastosowania przez państwo takiej technologii będzie działała zniechęcająco np. na chęć ludzi uczestniczenia w jakimś proteście. Sama obawa, że możesz być obserwowanym, że twoja tożsamość może zostać upubliczniona, to już zmienia zachowanie ludzi.

Czytaj więcej

Tomasz Pietryga: Rozporządzenie AI Act. Skanowanie twarzy to krok za daleko

Debata nad AI budzi też emocje w Polsce. Część opozycji uważa, że rządzące PiS — które ma już na swoim sumieniu różne zachowania godzące w praworządność i prawa podstawowe — wykorzysta tę furtkę dla prześladowania przeciwników politycznych. Czy to uzasadnione obawy?

Zdecydowanie tak. Bo poprawki proponowane przez EPL przewidują derogację dla państw członkowskich. Oznacza to, że każde państwo samo decyduje, kiedy może zastosować identyfikowanie biometryczne w czasie rzeczywistym. I próg do możliwego, zgodnego z prawem zastosowania tej technologii, jest proponowany na bardzo niskim poziomie - mowa np. o szukaniu osób oskarżonych o czyn, za który grozi minimum 3 lata więzienia. Do tej kategorii wchodzi np. przemyt roślin egzotycznych, który przecież nie stanowi żadnego zagrożenia dla bezpieczeństwa narodowego. A oficjalnie gra się na ludzkich emocjach, uzasadniając te poprawki obroną przed atakami terrorystycznymi, czy ochroną dzieci. Zresztą zwolennicy takiej inwigilacji prywatnie przyznają, że te argumenty, szczególnie np. dotyczące dzieci, świetnie działają na opinię publiczną. No i oczywiście jest ogromny lobbing za taką technologią, i ze strony bardzo zamożnych korporacji, które produkują urządzenia do masowej inwigilacji, i ze strony policji.

W debacie w Polsce część opozycji — Platforma Obywatelska — chyba nie do końca doceniła ładunek poprawek, która zgłosiła jest własną frakcja EPL. I teraz słyszę od nich, że całości nie poprą, a tylko poprawkę, żeby system można było wykorzystywać do ochrony dzieci.

Po pierwsze, te poprawki zostały przez EPL tak sformułowanie, że nie da się oddzielić dzieci od zagrożenia terroryzmem. To wszystko jest razem. Po drugie, nawet gdy się dało, to są wcześniej wspomniane zastrzeżenia. Techniczne nie się wprowadzić zabezpieczeń, który ograniczyłyby możliwość inwigilacji tylko na potrzeby poszukiwania zaginionych dzieci. To jest po prostu emocjonalna taktyka. Trzeba też powiedzieć, że nie ma żadnych dowodów na to, że ta technologia w tym zakresie, o którym mówi EPL, jest w ogóle skuteczna. Oczywiście rządy już tego używają, nie informując opinii publicznej. I nie są w stanie wykazać, że przyniosło to jakieś korzyści z punku widzenia bezpieczeństwa narodowego. Nie są też w stanie udowodnić, że nie ma dostępnych innych instrumentów, które służą temu samemu celowi, a nie są tak intruzywne i nie zagrażają prawom podstawowym. Bo musimy też pamiętać o zachowaniu zasady proporcjonalności. Wreszcie nie są w stanie pokazać, że kiedy już tego używają, bo nie widzą żadnej alternatywy, to robią to z poszanowaniem praw człowieka. Oczekuje się, że społeczeństwo obywatelskie dostarczy dowodów jak szkodliwa jest ta technologia. Ale powinniśmy to odwrócić. Niech rządy wykażą, że ona nie jest szkodliwa.

Czytaj więcej

Ważą się losy pierwszych na świecie regulacji ws. sztucznej inteligencji

Na razie to prawo jest w Parlamencie Europejskim, ale do jego przyjęcia potrzebny jest kompromis między PE a unijną Radą. Tymczasem rządy zdecydowanie bardziej niż eurodeputowani opowiadają się za dostępnością takiego narzędzia masowej inwigilacji. Nie obawia się pan, że nawet jeśli poprawki przepadną w PE, to zostaną przeforsowane w późniejszych negocjacjach?

Rada przyjęła swoje stanowisko w grudniu 2022 roku i jest ono nawet gorsze od tych poprawek w PE. Mowa tam o możliwości całkowitej derogacji państwa od tego zakazu masowej inwigilacji pod pretekstem bezpieczeństwa narodowego, bez jego definicji. Cokolwiek można pod to podciągnąć. Dlatego takie ważne jest, żeby PE przyjął w tej sprawie twarde, pryncypialne stanowisko. Bo i tak wiadomo, że kompromis będzie w innym miejscu, trzeba będzie ustąpić w negocjacjach z Radą. Ale jeśli Parlament pójdzie na te negocjacje od razu z takim słabym stanowiskiem, to efekt będzie jeszcze gorszy. I pamiętajmy, że unijne prawo ma być pierwszym aktem regulacyjnym dla sztucznej inteligencji na świecie. Może służyć jako punkt odniesienia. Jeśli będzie słabe, to może to mieć negatywne skutki gdzie indziej.

Europejska Partia Ludowa zgłosiła poprawki do aktu o sztucznej inteligencji, który będzie dziś głosowany w Parlamencie Europejskim. Chce, żeby było możliwe rozpoznawanie biometryczne w czasie rzeczywistym, ale tylko w określonych sytuacjach: szukania sprawców poważnych przestępstw, terrorystów i zaginionych dzieci. I zapewnia, że w system można wbudować bezpieczniki, które zapobiegną jego wykorzystywaniu do innych celów. Da się to zrobić?

Nie da się. Z technicznego punktu widzenia jest to niemożliwe. To jest system masowej inwigilacji i jedynym sposobem na to, żeby nie łamał on praw człowieka jest jego zakazanie. Ten instrument łamie wiele praw podstawowych: do prywatności, do ochrony danych osobowych, wolność słowa, zgromadzeń, prawo do niedyskryminacji. Do tego jest to system zawodny i dyskryminujący  ludzi o innym kolorze skóry niż biały. Mamy już przykłady ze Stanów Zjednoczonych, gdzie system błędnie wytypował przestępcę i oskarżono o kradzież czarnego człowieka, który w tym czasie przebywał w innym stanie. Tygodniami trwało dowiedzenie jego niewinności. I mówimy tu o sytuacji obywatela USA, który ma dostęp do adwokata. A co z migrantami, bo przecież wiadomo, że on jest wykorzystywany na granicach? Oni nawet nie wiedzą, że są poddawani tej procedurze, nie mają dostępu do prawników. Mamy tu w ogóle do czynienia z wielką dysproporcją. Po jednej stronie cały aparat państwa, po drugiej obywatel, który nie wie, jak się bronić przed inwigilacją. Zresztą nawet samo podejrzenia zastosowania przez państwo takiej technologii będzie działała zniechęcająco np. na chęć ludzi uczestniczenia w jakimś proteście. Sama obawa, że możesz być obserwowanym, że twoja tożsamość może zostać upubliczniona, to już zmienia zachowanie ludzi.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Konsumenci
Paliwo będzie droższe o 50 groszy na litrze, rachunki za gaz o jedną czwartą
Praca, Emerytury i renty
Krem z filtrem, walizka i autoresponder – co o urlopie powinien wiedzieć pracownik
Podatki
Wykup samochodu z leasingu – skutki w PIT i VAT
Nieruchomości
Jak kwestionować niezgodne z prawem plany inwestycyjne sąsiada? Odpowiadamy
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Nieruchomości
Wywłaszczenia pod inwestycje infrastrukturalne. Jakie mamy prawa?