Clearview AI udostępnił Ukrainie potężny system za darmo. Baza korzysta z ponad 10 mld zdjęć z internetu, z tego z ponad 2 mld fotografii znajdujących się w rosyjskim serwisie społecznościowym VKontakte.

System amerykańskiego startupu ma być wykorzystany w ramach walki z dezinformacją – podał Reuters. W praktyce algorytm, który potrafi rozpoznać twarz danej osoby, bazując na danych z internetu, będzie pomagał w identyfikacji rosyjskich agresorów, zarówno wojskowych, jak i najemników, jak też rozpoznawania potencjalnych szpiegów. Problem w tym, że skuteczność narzędzia jest kwestionowana.

Reuters ostrzega, że błędnie wytypowane zdjęcie zatrzymanej przez ukraińską armię osoby może spowodować, że zostanie niesłusznie oskarżona np. o działalność szpiegowską. Jednak to tylko jedno oblicze tej technologii: ta z jednej strony może oczywiście być wykorzystana do likwidowania wrogów, z drugiej zaś pomoże choćby w łączeniu rozdzielonych wojną rodzin i w poszukiwaniu osób zaginionych czy identyfikowaniu zmarłych.

Niezależnie od wojny w Ukrainie technologia Clearview AI już wcześniej budziła spore kontrowersje na świecie. Eksperci wskazują, że zdjęcia w bazie tego systemu często były pozyskiwane ze złamaniem prawa w niektórych krajach. Startup w USA ma procesy sądowe o naruszenie prawa do prywatności właśnie poprzez korzystanie ze zdjęć m.in. imigrantów. Mimo to po ten system sztucznej inteligencji sięga zarówno amerykańska policja, jak i FBI.

Jednak w Wielkiej Brytanii, Australii i Kanadzie korzystanie z tego systemu uznano za nielegalne. Niektóre państwa zobowiązały Clearview AI do usunięcia wizerunków swoich obywateli z bazy zdjęć – w tej grupie są np. Włochy.

Systemy rozpoznawania twarzy stają się na świecie coraz popularniejsze. Od lat sięgają po nie służby specjalne do identyfikacji terrorystów. W ub.r. izraelskie wojsko ustawiło w Hebronie, największym mieście na Zachodnim Brzegu, kamery, które skanują twarze Palestyńczyków. Masowo takie systemy wykorzystuje Pekin do kontrolowania swoich obywateli, ale również do prześladowania mniejszości ujgurskiej. Z takich technologii korzystał niedawno Departament Bezpieczeństwa Wewnętrznego USA w celu wykrycia sprawców ataku na Kapitol. Głośno było także o narzędziach AI, które rozpoznawały twarze funkcjonariuszy OMON tłumiących protesty po sfałszowanych wyborach prezydenckich na Białorusi. Kontrowersje wzbudził także projekt wykorzystania takiej technologii w szkolnych stołówkach w Szkocji (system służył do automatycznego poboru opłat).

W 2021 r. głośno było o podobnym do Clearview AI projekcie z Polski. Chodziło o stronę PimEyes, która każdemu umożliwiała sprawdzenie, czy jego zdjęcia nie są używane w internecie przez osoby kradnące tożsamość i stalkerów. Wystarczy przesłać zdjęcie twarzy, by zobaczyć wszystkie zdjęcia użytkownika, które PimEyes znalazła w internecie. Nawet te, których sam nie umieścił. Okazało się jednak, że wyszukiwarka opracowana przez dwóch absolwentów Politechniki Wrocławskiej, Łukasza Kowalczyka i Denisa Tatinę, jest tak dobra, że stała się narzędziem przestępców śledzących ofiary w sieci. To nie spodobało się obrońcom prywatności.

Parlament Europejski podjął w minionym roku rezolucję, w której wskazał, że automatyczne rozpoznawanie twarzy przez sztuczną inteligencję nie powinno być wykorzystywane do kontroli granicznej ani w przestrzeni publicznej.

Ukraińska armia sięga po cyfrową broń – rozpoznawanie twarzy wroga

Ukraińska armia sięga po cyfrową broń – rozpoznawanie twarzy wroga

Sergei SUPINSKY / AFP

Autopromocja
Wyjątkowa okazja

Roczny dostęp do treści rp.pl za pół ceny

KUP TERAZ