Najwięcej emocji budzi możliwość rozpoznawania biometrycznego w czasie rzeczywistym.
Czy państwo będzie mogło stosować technologie do analizowania twarzy osób na zgromadzeniach publicznych, w kolejce do odprawy na samolot czy w innych miejscach, po to, żeby wyłapać osoby podejrzane czy zaginione? Ten dylemat muszą w środę rozstrzygnąć europosłowie, którzy będą głosowali nad prawem o sztucznej inteligencji – pierwszym na świecie zbiorem przepisów regulujących zastosowanie tej przyszłościowej technologii.
Czytaj więcej
Mher Hakobyan, doradca ds. prawa sztucznej inteligencji, Amnesty International.
Patrzeć na skutki
– Nie zgadzam się na systemy identyfikacji biometrycznej w miejscach publicznych i w czasie rzeczywistym. Muszą pozostać na liście zakazanych praktyk. Wyobraźmy sobie skutki wykorzystania takiego systemu podczas masowego protestu przeciwko opresyjnemu rządowi… np. w Warszawie – napisała na swoim koncie na Twitterze Róża Thun, eurodeputowana z Polski 2050. To ona podniosła alarm w tej sprawie w Polsce, wskazując na możliwe szkody w kontekście działań PiS. Thun w PE należy do grupy liberalnej Renew Europe, która jest częścią szerokiego konsensusu w sprawie nowego prawa o sztucznej inteligencji.
Czytaj więcej:
Wiele systemów opartych na AI to technologie wysokiego ryzyka. Konieczne jest więc podjęcie dodatkowych środków technicznych i organizacyjnych, któ...
Pro
Na etapie prac w komisjach parlamentarnych większość grup politycznych – chadecy, socjaliści, liberałowie, Zieloni – uzgodniła wspólne stanowisko, obiecując, że nie będą zgłaszać swoich poprawek w czasie głosowania plenarnego. Teraz rzekomo mieli się z tego wyłamać chadecy, czyli Europejska Partia Ludowa, do której należą PO i PSL. Czy faktycznie EPL złamała porozumienie – to nie jest jasne, bo ona sama twierdzi, że miała prawo zgłaszać poprawki w sprawie rozpoznawania biometrycznego. I to zrobiła, wywołując protesty pozostałych partnerów, którzy zarzucają jej, że otwiera furtkę do masowej inwigilacji.
EPL tłumaczy, że działa w słusznym celu. – Gdy zaginie dziecko, liczy się każda sekunda! Chcemy, aby organy ścigania korzystały ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym w celu odnajdywania zaginionych osób i zapobiegania atakom terrorystycznym – brzmi odpowiedź chadeków. Chcą oni wrócić do oryginalnego brzmienia propozycji prawa o sztucznej inteligencji, jak proponowała je Komisja Europejska, czyli umożliwić rozpoznawanie biometryczne w czasie rzeczywistym dla wyszukiwania zaginionych dzieci, terrorystów i osób podejrzanych o najcięższe przestępstwa. Towarzyszyć miałyby temu zabezpieczenia uniemożliwiające nadużycia i wykorzystywanie technologii do innych celów. Jednak krytycy takiego podejścia wskazują, że łatwo będzie to można obejść.
Czytaj więcej
Bezpieczeństwo i porządek publiczny są ważne, ale w prawdziwych demokracjach trzeba szukać mniej inwazyjnych rozwiązań, aby nie budzić demonów tota...
Polska się wyłamała
Polska delegacja w EPL zdecydowała się wyłamać ze stanowiska swojej frakcji i poprze tylko jedną poprawkę – tę mówiącą o dopuszczeniu identyfikacji biometrycznej w czasie rzeczywistym do szukania zaginionych dzieci.
Biometryczne rozpoznanie nie podoba się też obrońcom praw człowieka. – Istnieje ryzyko, że Parlament Europejski może podważyć znaczną ochronę praw człowieka, osiągniętą podczas głosowania w komisji 11 maja, otwierając drzwi do korzystania z technologii, które są w bezpośredniej sprzeczności z międzynarodowymi przepisami dotyczącymi praw człowieka – powiedział Mher Hakobyan z Amnesty International. Jego zdaniem prawodawcy muszą zakazać rasistowskiego profilowania i systemów oceny ryzyka, które oznaczają migrantów i osoby ubiegające się o azyl jako „zagrożenie”; oraz technologie prognostyczne do przewidywania ruchów granicznych i odmawiania ludziom prawa do azylu.
DYSCYPLINOWANIE AI
Co będzie zabronione
Z definicji mają być zakazane systemy AI, które wykorzystują: techniki podprogowe, manipulacyjne lub oszukańcze w celu zniekształcenia zachowania; słabe punkty jednostek lub określonych grup; kategoryzację biometryczną opartą na wrażliwych cechach. Również te, które miałyby być wykorzystywane do oceny wiarygodności; do oceny ryzyka popełnienia przestępstwa karnego lub administracyjnego; tworzące lub rozszerzające bazy danych rozpoznawania twarzy poprzez nieukierunkowany „scraping” (przeczesywanie stron internetowych); wreszcie wnioskujące na podstawie emocji egzekwowanie prawa, zarządzanie granicami, oraz w miejscu pracy i edukacji.