Najnowsze orzeczenie TSUE dotyka istotnej kwestii: na nasze życie coraz bardziej wpływa ocena, jaką wystawiają nam algorytmy na potrzeby różnych instytucji i prywatnych firm. W spornych przypadkach nasze interesy przegrywają zaś z tajemnicą handlową profilerów.

Nie dostała telefonu, bo automat uznał, że nie ma zdolności kredytowej

Operator telefonii komórkowej w Austrii odmówił klientce zawarcia umowy wiążącej się z koniecznością zapłaty co miesiąc 10 euro. Powodem była niewystarczająca zdolność kredytowa kobiety. Decyzja operatora była oparta na ocenie zdolności kredytowej, której dokonała w sposób zautomatyzowany austriacka spółka Dun & Bradstreet, specjalizująca się w takich usługach.

Klientka bezskutecznie próbowała dowiedzieć się, co dokładnie Dun & Bradstreet brano pod uwagę do oceny  jej zdolności kredytowej. Spór trafił na wokandę. W prawomocnym orzeczeniu sąd stwierdził, że spółka naruszyła ogólne rozporządzenie o ochronie danych osobowych (RODO), ponieważ nie udzieliła klientce „istotnych informacji o zasadach” zautomatyzowanego podejmowania rozpatrywanej decyzji i nie uzasadniło w wystarczający sposób, dlaczego nie mogło udzielić tych informacji.

Czytaj więcej

Zakaz profilowania także przez firmy prywatne. Stanowisko rzecznika TSUE

Profilowanie: nie wystarczy pokazać konsumentowi algorytm, który ocenił jego zdolność kredytową

Sąd, do którego klientka wniosła sprawę w celu uzyskania egzekucji tego orzeczenia, postanowił zapytać TSUE o wykładnię RODO i dyrektywy w sprawie ochrony tajemnic przedsiębiorstwa, bo chciał ustalić, jakie konkretnie działania powinna w tej sprawie podjąć spółka Dun & Bradstreet. 

- Osoba, której dane dotyczą, ma prawo do uzyskania wyjaśnienia, w jaki sposób podjęto w stosunku do niej decyzję w drodze zautomatyzowanej oceny kredytowej - orzekł Trybunał Sprawiedliwości.

Zdaniem Trybunału,  administrator powinien konkretnie opisać procedurę i zasady, jakie zastosował. Tak, aby osoba, której dane dotyczą, mogła zrozumieć, które z jej danych i w jaki sposób zostały wykorzystane do zautomatyzowanego podejmowania decyzji. Nie wystarczy jednak przekazanie konsumentowi samego algorytmu.

- W celu spełnienia wymogów przejrzystości i zrozumiałości właściwe może być  poinformowanie osoby, której dane dotyczą, o tym, w jakim zakresie zmiana uwzględnionych danych osobowych doprowadziłaby do odmiennego rezultatu – wskazał TSUE. 

Czytaj więcej

Rozwadowski, Sotowski: AI i zakazane praktyki. A potem kary

Co jednak w sytuacji, gdy w ocenie administratora informacje, które należy przekazać, zawierają chronione dane osób trzecich lub tajemnice przedsiębiorstwa? 

- W takim przypadku administrator musi przekazać je właściwemu organowi nadzorczemu lub właściwemu sądowi. Na nich spoczywa obowiązek wyważenia rozpatrywanych praw i interesów w celu ustalenia zakresu prawa dostępu do wspomnianych informacji przysługującego osobie, której dane dotyczą  – wyjaśnił Trybunał.