Jak pisał niedawno na łamach „Rzeczpospolitej" Michał Duszczyk, DeepSeek, który pojawił się jako wielki hit oferujący możliwości najlepszych modeli ChatGPT, ale za darmo, skusił miliony internautów do zarejestrowania się i ściągnięcia aplikacji na telefon. Eksperci twierdzą, że w tej historii niebywałego sukcesu jest wiele znaków zapytania. Już wiadomo, że chiński bot mocno cenzuruje swoje odpowiedzi, a jednocześnie głęboko sięga do prywatności użytkowników.
Komunikat ostrzegający przed korzystaniem z nowej aplikacji wydał właśnie Urząd Ochrony Danych Osobowych. Przypomina, iż DeepSeek to chatbot bazujący na technologii generatywnej sztucznej inteligencji, który w styczniu 2025 r. został wprowadzony na rynek globalny m.in. jako bezpłatna aplikacja. Głównym elementem DeepSeek jest oprogramowanie zaprojektowane do rozumienia i przetwarzania ludzkich rozmów. Usługa świadczona jest przez zarejestrowane w Chinach firmy – Hangzhou DeepSeek Artificial Intelligence Co., Ltd. oraz Beijing DeepSeek Artificial Intelligence Co. W ciągu zaledwie dwóch pierwszych tygodni oprogramowanie pobrało 3,6 mln osób na całym świecie.
Czytaj więcej
Niespodziewany konkurent ChatGPT, który przebojem podbija świat AI, może zbierać mnóstwo danych o...
UODO zaleca daleko idącą ostrożność w korzystaniu z DeepSeek
W komunikacie podkreślono, iż biorąc pod uwagę wstępne ustalenia związane z informacjami dostarczonymi przez dostawcę w jego polityce prywatności, Prezes UODO zaleca daleko idącą ostrożność w korzystaniu z aplikacji oraz innych usług oferowanych w ramach DeepSeek. Z informacji w niej zawartych wynika m.in., że dane użytkowników mogą być przechowywane na serwerach zlokalizowanych w Chinach. Tymczasem jak przypomniano, Chiny nie należą do państw, wobec których Komisja Europejska wydała decyzję stwierdzającą odpowiedni stopień ochrony, a zgodnie z obowiązującymi przepisami rząd chiński posiada szerokie uprawnienia związane z dostępem do danych osobowych bez gwarancji ochrony przewidzianej w europejskim porządku prawnym.
Urząd przypomina również, że technologie oparte na generatywnej sztucznej inteligencji w założeniu opierają się na przetwarzaniu ogromnej ilości danych, które mogą być wykorzystywane do celów niezgodnych z pierwotnym życzeniem użytkownika, np. do dalszego trenowania modelu lub w celach marketingowych.