Sztuczna inteligencja a ochrona danych

Wiele systemów opartych na AI to technologie wysokiego ryzyka. Konieczne jest więc podjęcie dodatkowych środków technicznych i organizacyjnych, które ograniczą potencjalnie niebezpieczne skutki dla osób fizycznych.

Publikacja: 12.05.2023 02:00

Sztuczna inteligencja a ochrona danych

Foto: AdobeStock

W ostatnim czasie szerokim echem odbiło się wprowadzenie na rynek i udostępnienie narzędzia ChatGPT, które umożliwia wykorzystanie sztucznej inteligencji (AI) do tworzenia zaawansowanych tekstów (human-like texts). Szczególnie dużo mówi się o jego najnowszej wersji ChatGPT 4, która posiada możliwość analizowania nie tylko tekstu, ale również obrazu, dźwięku, czy nagrań wideo, dzięki czemu wielość potencjalnych zastosowań oprogramowania znacznie wzrosła. Nie ulega jednak wątpliwości, że wykorzystywanie narzędzi z zakresu sztucznej inteligencji może nieść za sobą różne ryzyka, w tym prawne, którym warto się bliżej przyjrzeć. Kwestia ta jest istotna, w szczególności mając na uwadze niedawną decyzję włoskiego organu ochrony danych (wł. Garante per la protezione dei dati personali, GPDP) tymczasowo zakazującą używania ChatGPT. Została ona wydana w związku z incydentem z dnia 20 marca 2023 roku, kiedy wyciekły dane użytkowników w zakresie rozmów oraz informacji dotyczących płatności za oprogramowanie. Administratorowi zarzucono również nieinformowanie użytkowników co do zakresu danych zbieranych przez program oraz podstawy prawnej ich gromadzenia i przetwarzania, w związku z czym urząd nakazał zaprzestanie przetwarzania danych użytkowników do czasu wyjaśnienia problematycznych kwestii. Spółka odpowiedzialna za ChatGPT podjęła działania mające na celu wyjaśnienie problematycznych kwestii, wprowadziła weryfikację wieku użytkowników, opracowała nową wersję polityki prywatności oraz, co najważniejsze, formularz pozwalający użytkownikom na wyrażenie sprzeciwu wobec wykorzystywania ich danych osobowych w celach służących szkoleniu systemu. Co prawda włoski urząd uznał podjęte działania za wystarczające i zezwolił na przywrócenie dostępu do tej technologii, natomiast zaistniała sytuacja pokazuje, że mechanizmy AI stwarzają wiele ryzyk w obszarze ochrony prywatności.

Pozostało 89% artykułu

Treść dostępna jest dla naszych prenumeratorów!

Kontynuuj czytanie tego artykułu w ramach e-prenumeraty Rzeczpospolitej. Korzystaj z nieograniczonego dostępu i czytaj swoje ulubione treści w serwisie rp.pl i e-wydaniu.

Podatki
Nierealna darowizna nie uwolni od drakońskiego podatku. Jest wyrok NSA
Samorząd
Lekcje religii po nowemu. Projekt MEiN pozwoli zaoszczędzić na katechetach
Dane osobowe
Wyciek danych klientów znanej platformy. Jest doniesienie do prokuratury
Cudzoziemcy
Rząd wprowadza nowe obowiązki dla uchodźców z Ukrainy
Sądy i trybunały
Prokurator krajowy zdecydował: będzie śledztwo ws. sędziego Nawackiego